
Josh Breaker-Rolfe می نویسد: هوش مصنوعی (AI) می تواند جهان را همانطور که می شناسیم تغییر دهد. از مراقبتهای بهداشتی گرفته تا ارتباطات و تولید، استفاده متفکرانه از هوش مصنوعی میتواند باعث افزایش درآمد، کاهش هزینهها و حتی نجات جان انسانها شود. اما هر نوآوری خطرات جدیدی را به همراه دارد و هوش مصنوعی تفاوتی ندارد.
مانند همه ایدههای جدید، حکمرانی هوش مصنوعی در حال بازی کردن است. با فقدان مقررات و بهترین شیوه های استاندارد شده، سازمان ها باید به طور انتقادی در مورد اینکه چگونه و چرا باید فناوری جدید را در مدل های تجاری خود بگنجانند، فکر کنند.
هوش مصنوعی پیامدهای امنیتی و حریم خصوصی زیادی دارد که سازمان هایی که تشنه به دست آوردن مزایای به همان اندازه عظیم هستند می توانند به راحتی از آن چشم پوشی کنند. ماهها پس از راهاندازی OpenAI ChatGPT، بسیاری از بزرگترین شرکتهای جهان از جمله والمارت، مایکروسافت و سامسونگ هشدارهایی را به کارمندان خود صادر کردند و از آنها درخواست کردند که دادههای شرکت را با چتبات به اشتراک نگذارند. برای پی بردن به دلیل آن نیازی به کند و کاو زیادی نیست.
ChatGPT یک ابزار یادگیری ماشینی است. مگر اینکه کاربر انصراف دهد، از همه مکالمات برای آموزش مدل و بهبود خدماتش استفاده می کند. OpenAI هیچ توضیحی در مورد این موضوع نمی دهد و به صراحت در توافقنامه حفظ حریم خصوصی خود عنوان می کند که ChatGPT «ممکن است اطلاعات شخصی را جمع آوری یا از بین ببرد و از اطلاعات جمع آوری شده برای تجزیه و تحلیل اثربخشی استفاده کند. [its] خدمات.” در تئوری، هر اطلاعات شرکتی که یک کارمند در ChatGPT وارد می کند، می تواند در مکالمه هر کاربر دیگری به دست بیاید.
اما این همه ماجرا نیست. ChatGPT در حال حاضر دارای 1.8 میلیارد بازدید کننده ماهانه است. کاربران قبلاً حجم غیرقابل اندازهگیری اطلاعات را در ربات چت وارد کردهاند، و تنها میتوان فرض کرد که مجرمان سایبری به طور مثبتی از چشمانداز دستیابی به آن دادهها غمگین هستند. در واقع، در ماه مارس، محققان باگی را کشف کردند که عناوین، اولین پیام مکالمات جدید و اطلاعات پرداخت کاربران ChatGPT Plus را فاش می کرد. مجرمان سایبری به دلیل ماندگاری خود مشهور هستند، به این معنی که احتمالاً زمان زیادی است که ChatGPT از نقض مهم تری رنج می برد. اگر سازمانها میخواهند از افشای دادههای حساس خود جلوگیری کنند، باید به دقت فکر کنند که چه دادههایی را وارد چتبات میکنند.
با این حال، خطرات مرتبط با هوش مصنوعی به حریم خصوصی و امنیت محدود نمی شود. به راحتی می توان هوش مصنوعی را به عنوان یک موجود دانای کل، یک ماشین جادویی که در عرض چند ثانیه به مسائل پیچیده پاسخ می دهد، مشاهده کرد. اما این لزوماً اینطور نیست. ابزارهای هوش مصنوعی مانند ChatGPT اساساً خراش دهندههای اطلاعاتی فوقالعادهای هستند که اینترنت را برای یافتن پاسخ سؤالات کاربران جستجو میکنند. هر پاسخی که ChatGPT میدهد کاملاً صحیح نیست، و با فرض اینکه چنین فرضی میشود میتواند عواقب بدی داشته باشد، به طور بالقوه پروژههای تحول دیجیتال را متوقف کند، فعالیتهای تجاری را به طور گسترده مختل کند، یا حتی سازمانها را با مشکل قانونی مواجه کند.
مدیریت ریسک سازمانی هوش مصنوعی
اگر سازمانها بخواهند با خیال راحت از هوش مصنوعی استفاده کنند، توسعه یک استراتژی مدیریت ریسک سازمانی بسیار مهم است. اما این پیچیده تر از آن است که به نظر می رسد. مدیریت ریسک هوش مصنوعی یک قلمرو ناشناخته است. هیچ نقشه راهی وجود ندارد که سازمان ها بتوانند هنگام توسعه استراتژی مدیریت ریسک برای استفاده از ابزارهای هوش مصنوعی مانند ChatGPT به آن مراجعه کنند.
اولین قدم برای اجرای یک استراتژی مدیریت ریسک مستحکم این است که فرض کنیم هیچ یک از اطلاعات ارسال شده به ابزارهای هوش مصنوعی خصوصی نیست. در حالی که ممکن است شرکتها وسوسه شوند که پروژههای تحول دیجیتال خود را پیش ببرند، اما با استفاده از هوش مصنوعی با رها کردن بیاحتیاطی، باید خود را مهار کنند. سازمان ها فقط باید از ابزارهای هوش مصنوعی با هدف خاصی استفاده کنند و کارمندان باید تا حد امکان داده های کمتری را وارد کنند. در حالت ایدهآل، سازمانها چگونه میتوانند بدون وارد کردن اطلاعات به اهداف هوش مصنوعی خود دست یابند، اما ممکن است هنوز راه حلی نباشد.
ما ثابت کردهایم که ابزارهای هوش مصنوعی مانند ChatGPT از این نظر محدود هستند که پاسخهای آنها فقط به خوبی سؤالات کاربران خواهد بود. زباله داخل، زباله بیرون. اما این شبیه چه چیزی است؟ و چگونه سازمان ها می توانند از این امر اجتناب کنند؟
مهم است که به یاد داشته باشید که ابزارهای یادگیری ماشینی اطلاعات در دسترس عموم را بازگردانند. هوش مصنوعی تعصبات و تعصبات ما را منعکس می کند.
در ماه مارس، کمیته مشاوره ای کانکتیکات به کمیسیون حقوق مدنی ایالات متحده گزارشی با عنوان: «پیامدهای حقوق مدنی الگوریتم ها» منتشر کرد. توضیح داد که چگونه داده های آموزشی خاص می تواند منجر به نتایج مغرضانه شود. UCCR مثالی ارائه کرد که «در شهر نیویورک، افسران پلیس بیش از پنج میلیون نفر را در دهه گذشته متوقف کردند و او را سرکوب کردند. در آن زمان، سیاه پوستان و لاتین تبارها نه برابر بیشتر از همتایان سفیدپوست خود در معرض خطر بودند. در نتیجه، الگوریتمهای پلیسی پیشبینیکننده که بر روی دادههای آن حوزه قضایی آموزش داده شدهاند، جرم و جنایت را در محلههایی با ساکنان عمدتا سیاهپوست و لاتین تبار پیشبینی میکنند. سازمانها باید از هوش مصنوعی به طور متفکرانه استفاده کنند و از موقعیتهایی که ابزار میتواند نتایج مغرضانه ایجاد کند اجتناب کنند.
نکته کلیدی در اینجا این است که هوش مصنوعی، در حالی که بدون شک هیجان انگیز است، باید با احتیاط استفاده شود. سازمانها باید بر نحوه استفاده کارکنان از ابزارهای یادگیری ماشینی و اطلاعاتی که وارد میکنند نظارت و کنترل کنند تا از پیامدهای مخرب امنیتی و حریم خصوصی جلوگیری کنند. در حالی که خطر هوش مصنوعی اغلب در داستان های علمی تخیلی بسیار زیاد است، ما باید با دقت قدم برداریم تا از فاجعه (هر چند نه آخرالزمانی) اجتناب کنیم.
منبع: https://professionalsecurity.co.uk/news/commercial-security/ai-and-enterprise-risks/