هوش مصنوعی و ریسک های سازمانی | امنیت حرفه ای


Josh Breaker-Rolfe می نویسد: هوش مصنوعی (AI) می تواند جهان را همانطور که می شناسیم تغییر دهد. از مراقبت‌های بهداشتی گرفته تا ارتباطات و تولید، استفاده متفکرانه از هوش مصنوعی می‌تواند باعث افزایش درآمد، کاهش هزینه‌ها و حتی نجات جان انسان‌ها شود. اما هر نوآوری خطرات جدیدی را به همراه دارد و هوش مصنوعی تفاوتی ندارد.

مانند همه ایده‌های جدید، حکمرانی هوش مصنوعی در حال بازی کردن است. با فقدان مقررات و بهترین شیوه های استاندارد شده، سازمان ها باید به طور انتقادی در مورد اینکه چگونه و چرا باید فناوری جدید را در مدل های تجاری خود بگنجانند، فکر کنند.

هوش مصنوعی پیامدهای امنیتی و حریم خصوصی زیادی دارد که سازمان هایی که تشنه به دست آوردن مزایای به همان اندازه عظیم هستند می توانند به راحتی از آن چشم پوشی کنند. ماه‌ها پس از راه‌اندازی OpenAI ChatGPT، بسیاری از بزرگ‌ترین شرکت‌های جهان از جمله والمارت، مایکروسافت و سامسونگ هشدارهایی را به کارمندان خود صادر کردند و از آن‌ها درخواست کردند که داده‌های شرکت را با چت‌بات به اشتراک نگذارند. برای پی بردن به دلیل آن نیازی به کند و کاو زیادی نیست.

ChatGPT یک ابزار یادگیری ماشینی است. مگر اینکه کاربر انصراف دهد، از همه مکالمات برای آموزش مدل و بهبود خدماتش استفاده می کند. OpenAI هیچ توضیحی در مورد این موضوع نمی دهد و به صراحت در توافقنامه حفظ حریم خصوصی خود عنوان می کند که ChatGPT «ممکن است اطلاعات شخصی را جمع آوری یا از بین ببرد و از اطلاعات جمع آوری شده برای تجزیه و تحلیل اثربخشی استفاده کند. [its] خدمات.” در تئوری، هر اطلاعات شرکتی که یک کارمند در ChatGPT وارد می کند، می تواند در مکالمه هر کاربر دیگری به دست بیاید.

اما این همه ماجرا نیست. ChatGPT در حال حاضر دارای 1.8 میلیارد بازدید کننده ماهانه است. کاربران قبلاً حجم غیرقابل اندازه‌گیری اطلاعات را در ربات چت وارد کرده‌اند، و تنها می‌توان فرض کرد که مجرمان سایبری به طور مثبتی از چشم‌انداز دستیابی به آن داده‌ها غمگین هستند. در واقع، در ماه مارس، محققان باگی را کشف کردند که عناوین، اولین پیام مکالمات جدید و اطلاعات پرداخت کاربران ChatGPT Plus را فاش می کرد. مجرمان سایبری به دلیل ماندگاری خود مشهور هستند، به این معنی که احتمالاً زمان زیادی است که ChatGPT از نقض مهم تری رنج می برد. اگر سازمان‌ها می‌خواهند از افشای داده‌های حساس خود جلوگیری کنند، باید به دقت فکر کنند که چه داده‌هایی را وارد چت‌بات می‌کنند.

با این حال، خطرات مرتبط با هوش مصنوعی به حریم خصوصی و امنیت محدود نمی شود. به راحتی می توان هوش مصنوعی را به عنوان یک موجود دانای کل، یک ماشین جادویی که در عرض چند ثانیه به مسائل پیچیده پاسخ می دهد، مشاهده کرد. اما این لزوماً اینطور نیست. ابزارهای هوش مصنوعی مانند ChatGPT اساساً خراش دهنده‌های اطلاعاتی فوق‌العاده‌ای هستند که اینترنت را برای یافتن پاسخ سؤالات کاربران جستجو می‌کنند. هر پاسخی که ChatGPT می‌دهد کاملاً صحیح نیست، و با فرض اینکه چنین فرضی می‌شود می‌تواند عواقب بدی داشته باشد، به طور بالقوه پروژه‌های تحول دیجیتال را متوقف کند، فعالیت‌های تجاری را به طور گسترده مختل کند، یا حتی سازمان‌ها را با مشکل قانونی مواجه کند.

مدیریت ریسک سازمانی هوش مصنوعی

اگر سازمان‌ها بخواهند با خیال راحت از هوش مصنوعی استفاده کنند، توسعه یک استراتژی مدیریت ریسک سازمانی بسیار مهم است. اما این پیچیده تر از آن است که به نظر می رسد. مدیریت ریسک هوش مصنوعی یک قلمرو ناشناخته است. هیچ نقشه راهی وجود ندارد که سازمان ها بتوانند هنگام توسعه استراتژی مدیریت ریسک برای استفاده از ابزارهای هوش مصنوعی مانند ChatGPT به آن مراجعه کنند.

اولین قدم برای اجرای یک استراتژی مدیریت ریسک مستحکم این است که فرض کنیم هیچ یک از اطلاعات ارسال شده به ابزارهای هوش مصنوعی خصوصی نیست. در حالی که ممکن است شرکت‌ها وسوسه شوند که پروژه‌های تحول دیجیتال خود را پیش ببرند، اما با استفاده از هوش مصنوعی با رها کردن بی‌احتیاطی، باید خود را مهار کنند. سازمان ها فقط باید از ابزارهای هوش مصنوعی با هدف خاصی استفاده کنند و کارمندان باید تا حد امکان داده های کمتری را وارد کنند. در حالت ایده‌آل، سازمان‌ها چگونه می‌توانند بدون وارد کردن اطلاعات به اهداف هوش مصنوعی خود دست یابند، اما ممکن است هنوز راه حلی نباشد.

ما ثابت کرده‌ایم که ابزارهای هوش مصنوعی مانند ChatGPT از این نظر محدود هستند که پاسخ‌های آن‌ها فقط به خوبی سؤالات کاربران خواهد بود. زباله داخل، زباله بیرون. اما این شبیه چه چیزی است؟ و چگونه سازمان ها می توانند از این امر اجتناب کنند؟

مهم است که به یاد داشته باشید که ابزارهای یادگیری ماشینی اطلاعات در دسترس عموم را بازگردانند. هوش مصنوعی تعصبات و تعصبات ما را منعکس می کند.

در ماه مارس، کمیته مشاوره ای کانکتیکات به کمیسیون حقوق مدنی ایالات متحده گزارشی با عنوان: «پیامدهای حقوق مدنی الگوریتم ها» منتشر کرد. توضیح داد که چگونه داده های آموزشی خاص می تواند منجر به نتایج مغرضانه شود. UCCR مثالی ارائه کرد که «در شهر نیویورک، افسران پلیس بیش از پنج میلیون نفر را در دهه گذشته متوقف کردند و او را سرکوب کردند. در آن زمان، سیاه پوستان و لاتین تبارها نه برابر بیشتر از همتایان سفیدپوست خود در معرض خطر بودند. در نتیجه، الگوریتم‌های پلیسی پیش‌بینی‌کننده که بر روی داده‌های آن حوزه قضایی آموزش داده شده‌اند، جرم و جنایت را در محله‌هایی با ساکنان عمدتا سیاه‌پوست و لاتین تبار پیش‌بینی می‌کنند. سازمان‌ها باید از هوش مصنوعی به طور متفکرانه استفاده کنند و از موقعیت‌هایی که ابزار می‌تواند نتایج مغرضانه ایجاد کند اجتناب کنند.

نکته کلیدی در اینجا این است که هوش مصنوعی، در حالی که بدون شک هیجان انگیز است، باید با احتیاط استفاده شود. سازمان‌ها باید بر نحوه استفاده کارکنان از ابزارهای یادگیری ماشینی و اطلاعاتی که وارد می‌کنند نظارت و کنترل کنند تا از پیامدهای مخرب امنیتی و حریم خصوصی جلوگیری کنند. در حالی که خطر هوش مصنوعی اغلب در داستان های علمی تخیلی بسیار زیاد است، ما باید با دقت قدم برداریم تا از فاجعه (هر چند نه آخرالزمانی) اجتناب کنیم.




منبع: https://professionalsecurity.co.uk/news/commercial-security/ai-and-enterprise-risks/