NCSC در ChatGPT | امنیت حرفه ای


مدل‌های زبان بزرگ (LLM) و چت‌ربات‌های هوش مصنوعی، با انتشار ChatGPT در اواخر سال 2022 و سهولت جستجوی آن، توجه جهان را به خود جلب کرده‌اند. مرکز ملی امنیت سایبری رسمی بریتانیا می نویسد که اکنون یکی از سریع ترین برنامه های کاربردی مصرف کننده در حال رشد است.NCSC).

بدون شک، NCSC در یک پست وبلاگ نتیجه می گیرد، خطراتی در استفاده بدون محدودیت از LLM های عمومی وجود دارد. افراد و سازمان‌ها باید مراقب داده‌هایی که برای ارسال در درخواست‌ها انتخاب می‌کنند، باشند. NCSC توصیه می کند، باید اطمینان حاصل کنید که کسانی که می خواهند با LLM آزمایش کنند، می توانند این کار را انجام دهند، اما به گونه ای که داده های سازمانی را در معرض خطر قرار ندهد.

در مورد ایمیل‌های فیشینگ، NCSC اشاره می‌کند که LLM‌ها در تکرار سبک‌های نوشتاری در صورت تقاضا عالی هستند، این خطر وجود دارد که مجرمان از LLM برای نوشتن ایمیل‌های فیشینگ قانع‌کننده، از جمله ایمیل‌ها به چندین زبان استفاده کنند. این ممکن است با کمک به مهاجمان با قابلیت‌های فنی بالا، اما فاقد مهارت‌های زبانی، با کمک به آنها برای ایجاد ایمیل‌های فیشینگ قانع‌کننده (یا انجام مهندسی اجتماعی) به زبان مادری اهداف خود، کمک کند.

برای پست وبلاگ به طور کامل مراجعه کنید وب سایت NCSC.

اظهار نظر

اگر اطلاعاتی را برای پردازش به یک ارائه‌دهنده خدمات خارجی ارسال می‌کنید، باید فرض کنید که می‌تواند آن اطلاعات را به عنوان بخشی از معماری خود ذخیره و توزیع کند. ویکوس راس، محقق ارشد امنیت در دانشگاه می گوید: در غیاب یک بیانیه صریح و واضح که در آن پردازنده شخص ثالث تضمین می کند که اطلاعات درز نمی کند، باید فرض کنید که دیگر خصوصی نیست. دفاع سایبری نارنجی. در حالی که چت ربات‌های مبتنی بر هوش مصنوعی توسط توسعه‌دهندگان آموزش داده می‌شوند، دسترسی کارکنان به داده‌هایی که در آن‌ها وارد می‌شود دور از ذهن نیست. و با توجه به اینکه انسان ها اغلب ضعیف ترین عنصر موقعیت امنیتی یک کسب و کار هستند، این اطلاعات را در برابر طیف وسیعی از تهدیدات باز می کند، حتی اگر خطر تصادفی باشد.

زمانی که داده‌ها را با شخص ثالث به اشتراک می‌گذارند، کسب‌وکارها باید بدانند که امنیت آن اکنون از دست آنها خارج شده است، زیرا اعمال خط‌مشی‌ها، رویه‌ها و کنترل‌های خود بر روی داده‌هایی که در یک محیط خارجی قرار می‌گیرند دشوار است. این حتی برای پلتفرم‌های SaaS مانند Slack و Microsoft Teams نیز صدق می‌کند، که داده‌ها و مرزهای پردازش واضحی دارند، اما وقتی با افزونه‌های شخص ثالث تقویت می‌شوند، محو می‌شوند.

بنابراین، کسب‌وکارها باید از توصیه‌های NCSC برای برجسته کردن خطری که این ابزارها برای هرگونه اطلاعات حساسی که در آنها وارد می‌شود، استفاده کنند. کارکنان باید آگاه باشند که لزوما فقط با یک هوش مصنوعی صحبت نمی‌کنند، بلکه انسان‌ها می‌توانند به مکالمات آن‌ها یا با نیت مخرب دسترسی داشته باشند یا افرادی که به سادگی از بهترین شیوه‌های امنیت سایبری آگاه نیستند و بنابراین داده‌ها را در معرض خطر قرار می‌دهند. . جلوگیری از استفاده کامل کارکنان از این ابزارها تقریباً غیرممکن خواهد بود، اما آموزش و آگاهی کلیدی برای بی ضرر کردن استفاده از آنها تا حد امکان است.




منبع: https://www.professionalsecurity.co.uk/news/case-studies/ncsc-on-chatgpt/