
مدلهای زبان بزرگ (LLM) و چترباتهای هوش مصنوعی، با انتشار ChatGPT در اواخر سال 2022 و سهولت جستجوی آن، توجه جهان را به خود جلب کردهاند. مرکز ملی امنیت سایبری رسمی بریتانیا می نویسد که اکنون یکی از سریع ترین برنامه های کاربردی مصرف کننده در حال رشد است.NCSC).
بدون شک، NCSC در یک پست وبلاگ نتیجه می گیرد، خطراتی در استفاده بدون محدودیت از LLM های عمومی وجود دارد. افراد و سازمانها باید مراقب دادههایی که برای ارسال در درخواستها انتخاب میکنند، باشند. NCSC توصیه می کند، باید اطمینان حاصل کنید که کسانی که می خواهند با LLM آزمایش کنند، می توانند این کار را انجام دهند، اما به گونه ای که داده های سازمانی را در معرض خطر قرار ندهد.
در مورد ایمیلهای فیشینگ، NCSC اشاره میکند که LLMها در تکرار سبکهای نوشتاری در صورت تقاضا عالی هستند، این خطر وجود دارد که مجرمان از LLM برای نوشتن ایمیلهای فیشینگ قانعکننده، از جمله ایمیلها به چندین زبان استفاده کنند. این ممکن است با کمک به مهاجمان با قابلیتهای فنی بالا، اما فاقد مهارتهای زبانی، با کمک به آنها برای ایجاد ایمیلهای فیشینگ قانعکننده (یا انجام مهندسی اجتماعی) به زبان مادری اهداف خود، کمک کند.
برای پست وبلاگ به طور کامل مراجعه کنید وب سایت NCSC.
اظهار نظر
اگر اطلاعاتی را برای پردازش به یک ارائهدهنده خدمات خارجی ارسال میکنید، باید فرض کنید که میتواند آن اطلاعات را به عنوان بخشی از معماری خود ذخیره و توزیع کند. ویکوس راس، محقق ارشد امنیت در دانشگاه می گوید: در غیاب یک بیانیه صریح و واضح که در آن پردازنده شخص ثالث تضمین می کند که اطلاعات درز نمی کند، باید فرض کنید که دیگر خصوصی نیست. دفاع سایبری نارنجی. در حالی که چت رباتهای مبتنی بر هوش مصنوعی توسط توسعهدهندگان آموزش داده میشوند، دسترسی کارکنان به دادههایی که در آنها وارد میشود دور از ذهن نیست. و با توجه به اینکه انسان ها اغلب ضعیف ترین عنصر موقعیت امنیتی یک کسب و کار هستند، این اطلاعات را در برابر طیف وسیعی از تهدیدات باز می کند، حتی اگر خطر تصادفی باشد.
زمانی که دادهها را با شخص ثالث به اشتراک میگذارند، کسبوکارها باید بدانند که امنیت آن اکنون از دست آنها خارج شده است، زیرا اعمال خطمشیها، رویهها و کنترلهای خود بر روی دادههایی که در یک محیط خارجی قرار میگیرند دشوار است. این حتی برای پلتفرمهای SaaS مانند Slack و Microsoft Teams نیز صدق میکند، که دادهها و مرزهای پردازش واضحی دارند، اما وقتی با افزونههای شخص ثالث تقویت میشوند، محو میشوند.
بنابراین، کسبوکارها باید از توصیههای NCSC برای برجسته کردن خطری که این ابزارها برای هرگونه اطلاعات حساسی که در آنها وارد میشود، استفاده کنند. کارکنان باید آگاه باشند که لزوما فقط با یک هوش مصنوعی صحبت نمیکنند، بلکه انسانها میتوانند به مکالمات آنها یا با نیت مخرب دسترسی داشته باشند یا افرادی که به سادگی از بهترین شیوههای امنیت سایبری آگاه نیستند و بنابراین دادهها را در معرض خطر قرار میدهند. . جلوگیری از استفاده کامل کارکنان از این ابزارها تقریباً غیرممکن خواهد بود، اما آموزش و آگاهی کلیدی برای بی ضرر کردن استفاده از آنها تا حد امکان است.
منبع: https://www.professionalsecurity.co.uk/news/case-studies/ncsc-on-chatgpt/