خطرات امنیتی ChatGPT – شماره 3 2023

در حالی که OpenAI می گوید سیاست ها و اقدامات فنی سختگیرانه ای برای محافظت از داده های کاربر و حریم خصوصی دارد، حقیقت این است که اینها ممکن است کافی نباشند. ChatGPT داده‌ها را از وب، احتمالاً داده‌های شرکت خودتان را می‌خرد، که خطرات امنیتی را به همراه دارد. به عنوان مثال، خراش دادن داده ها می تواند منجر به اطلاعات حساس مانند اسرار تجاری و قرار گرفتن در معرض داده های مالی برای رقبا شود. همچنین اگر اطلاعات به دست آمده از طریق خراش داده ها نادرست باشد، می تواند به شهرت آسیب وارد کند. علاوه بر این، هنگامی که داده ها خراشیده می شوند، می توانند سیستم ها را به روی آسیب پذیری هایی باز کنند که عوامل مخرب می توانند از آنها سوء استفاده کنند.

2 www.securitysa.com/*gpt2



منبع: https://www.securitysa.com/19053R

ChatGPT که توسط آزمایشگاه هوش مصنوعی OpenAI توسعه یافته است، یک چت ربات انسان نما است که باعث ایجاد حس جهانی می شود. اکنون این اپلیکیشن سریع‌ترین رشد در تاریخ است و تنها در دو ماه به ۱۰۰ میلیون کاربر فعال رسیده است – بسیار سریع‌تر از ۹ ماهی که رکورددار قبلی TikTok برای رسیدن به این رکورد طول کشید.

اولین قدم شما این است که بفهمید چقدر آسیب پذیر هستید. تست نفوذ، که به عنوان تست قلم نیز شناخته می‌شود، می‌تواند با شبیه‌سازی یک حمله واقعی به سیستم‌ها، شبکه‌ها یا برنامه‌های شرکت شما به محافظت از داده‌های شما کمک کند. هدف این تمرین شناسایی آسیب پذیری های امنیتی است که عوامل مخرب می توانند از آنها سوء استفاده کنند تا بتوانید آنها را ببندید. با افشای نقاط ضعف خود در یک محیط کنترل شده، تست قلم به شما این امکان را می دهد که آن نقاط ضعف را برطرف کنید، وضعیت امنیتی خود را بهبود بخشید و خطر نقض موفقیت آمیز داده یا سایر حملات سایبری را کاهش دهید. در دنیای جدید ChatGPT، تست نفوذ می‌تواند نقش مهمی در کمک به محافظت از داده‌های خود و اطمینان از محرمانه بودن، یکپارچگی و در دسترس بودن آن داشته باشد.

قرار گرفتن همه افراد در معرض هک را افزایش می دهد.

توسط بایرون هورن-بوتا، رئیس واحد تجاری Arcserve آفریقای جنوبی.

1 www.securitysa.com/*gpt1

بایرون هورن-بوتا.

اقداماتی که می توانید برای محافظت از خود انجام دهید.

با توجه به اینکه سطح حمله به دلیل ظهور ChatGPT به طور چشمگیری گسترش یافته است، این چه تاثیری بر وضعیت امنیتی شما دارد؟ پیش از این، مشاغل کوچک و متوسط ​​ممکن بود احساس امنیت می کردند و فکر می کردند که ارزش هک کردن را ندارند. با این حال، با تسهیل ایجاد کدهای مخرب در مقیاس ChatGPT، قرار گرفتن همه در معرض جرایم سایبری به میزان قابل توجهی افزایش یافته است.

خطرات امنیتی ChatGPT

شماره 3 2023 انتخاب سردبیر، امنیت سایبری، اخبار، راه حل های یکپارچه

این ابزار قدرتمند و منبع باز می‌تواند هر کاری را که بخواهید انجام دهد، از جمله نوشتن مقالات مدرسه، تهیه پیش‌نویس توافق‌نامه‌ها و قراردادهای قانونی، حل مسائل پیچیده ریاضی، و قبولی در آزمون صدور مجوز پزشکی. همچنین این پتانسیل را دارد که شیوه فعالیت کسب و کارها را متحول کند. با ChatGPT، می‌توانید گزارش‌ها را به‌سرعت تولید کنید و درخواست‌های خدمات مشتری را به‌طور مؤثر مدیریت کنید. این ابزار حتی می تواند کدی را برای پیشنهاد محصول بعدی شما بنویسد، تجزیه و تحلیل بازار انجام دهد و به ساخت وب سایت شرکت شما کمک کند.

اگرچه ChatGPT مزایای بسیاری را برای مشاغل ارائه می دهد، اما سوالات امنیتی فوری را نیز مطرح می کند. یکی از خطرات مهم مرتبط با این فناوری، قدرتی است که به مجرمان سایبری بدون تجربه کدنویسی برای ایجاد و استقرار نرم‌افزارهای مخرب می‌دهد. با ChatGPT، هر کسی که نیت بدی دارد، می‌تواند به سرعت بدافزاری را ایجاد کرده و از آن استفاده کند که شرکت‌ها را ویران می‌کند.

در یک مثال، توسط Check Point گزارش شده است2، یک سازنده بدافزار در یک انجمن مجرمان سایبری فاش کرد که از ChatGPT برای تکرار گونه‌ها و تکنیک‌های بدافزار معروف استفاده می‌کنند. به عنوان مدرک، فرد کد یک دزد اطلاعات مبتنی بر پایتون را که با استفاده از ChatGPT توسعه داده بود، به اشتراک گذاشت. دزد 12 نوع فایل رایج را از یک سیستم در معرض خطر جستجو، کپی و انتقال می دهد، از جمله اسناد Office، PDF و تصاویر.

ChatGPT نشان می دهد که اگرچه تعداد ابزارهای امنیتی موجود برای محافظت از شما ممکن است در حال افزایش باشد، این ابزارها ممکن است نتوانند با فناوری های نوظهور هوش مصنوعی که می توانند آسیب پذیری شما را در برابر تهدیدات امنیتی افزایش دهند، همگام شوند. با توجه به تهدید مارپیچ جرایم سایبری، هر کسب‌وکاری باید از خطرات احتمالی ناشی از ChatGPT و سایر سیستم‌های پیشرفته هوش مصنوعی آگاه باشد و اقداماتی را برای به حداقل رساندن این خطرات انجام دهد.

شرکت‌ها همچنین باید استراتژی انعطاف‌پذیری داده‌های خود را دوچندان کنند و یک برنامه حفاظت از داده‌های قوی داشته باشند. یک طرح انعطاف پذیری داده، مراحلی را که یک کسب و کار باید برای محافظت از داده ها و سیستم های حیاتی خود بردارد و نحوه بازیابی عملیات عادی را تا حد امکان سریع و کارآمد در صورت وقوع نقض داده، تشریح می کند. همچنین یک نقشه راه برای پاسخ به تهدیدات سایبری، از جمله دستورالعمل های دقیق برای ایمن سازی سیستم ها، تهیه نسخه پشتیبان از داده ها، و برقراری ارتباط با ذینفعان در حین و پس از یک حادثه ارائه می کند. با ایجاد یک طرح انعطاف پذیری داده ها، کسب و کارها می توانند تأثیر تهدیدات سایبری را به حداقل برسانند و خطر از دست دادن داده ها را کاهش دهند و به اطمینان از موفقیت و بقای مداوم سازمان خود کمک کنند.

شرکت امنیتی Check Point Research گزارش داد که طی چند هفته پس از انتشار ChatGPT، افراد در انجمن‌های جرایم سایبری، از جمله افرادی که مهارت‌های کدنویسی محدودی داشتند، از آن برای ایجاد نرم‌افزار و ایمیل‌هایی برای جاسوسی، حملات باج‌افزار و ارسال هرزنامه‌های مخرب استفاده کردند.1. چک پوینت گفت که هنوز خیلی زود است که بگوییم آیا ChatGPT به ابزاری مناسب در میان ساکنان تاریک وب تبدیل خواهد شد. با این حال، جامعه مجرمان سایبری علاقه شدیدی به ChatGPT نشان داده اند و در حال حاضر از آن برای توسعه کدهای مخرب استفاده می کنند.

با قرار دادن حفاظت مناسب، سازمان ها می توانند مزایای فراوان ChatGPT را درک کنند، در حالی که از خود در برابر کسانی که از این ابزار برای اهداف مخرب استفاده می کنند، دفاع می کنند.

برای اطلاعات بیشتر، با Arcserve Southern Africa، [email protected] تماس بگیرید، www.arcserve.com

یکی دیگر از راه‌های متوقف کردن کودکان و مجرمان با قابلیت ChatGPT، ذخیره‌سازی غیرقابل تغییر داده است. تغییرناپذیری به این معنی است که داده ها به یک فرمت نوشتنی تبدیل می شوند، چندین بار خوانده می شوند و نمی توان آنها را حذف یا تغییر داد. هیچ راهی برای معکوس کردن تغییر ناپذیری وجود ندارد، که تضمین می کند همه نسخه های پشتیبان شما ایمن، در دسترس و قابل بازیابی هستند. حتی اگر مهاجمان به شبکه شما دسترسی کامل داشته باشند، باز هم نمی توانند کپی های تغییرناپذیر داده های شما را حذف کنند یا وضعیت آن داده ها را تغییر دهند.

بازیگران بد می توانند از ChatGPT و سایر ابزارهای نوشتن هوش مصنوعی برای موثرتر کردن کلاهبرداری های فیشینگ استفاده کنند. پیام های فیشینگ سنتی اغلب به راحتی قابل تشخیص هستند زیرا به زبان انگلیسی ناشیانه نوشته شده اند، اما ChatGPT می تواند این مشکل را برطرف کند. Mashable توانایی ChatGPT را با درخواست از آن برای ویرایش یک ایمیل فیشینگ آزمایش کرد. نه تنها به سرعت زبان را بهبود بخشید و اصلاح کرد، بلکه یک گام فراتر رفت و گیرنده فرضی را بدون تذکر باج خواهی کرد.