ChatGPT جرایم سایبری امروز را تقویت خواهد کرد – شماره 1 2023

با این حال، هوش مصنوعی مولد همچنان یک خطر بسیار واقعی امنیت سایبری است. جرایم سایبری اغلب از مهندسی اجتماعی استفاده می‌کند، مجموعه‌ای از تکنیک‌های اثبات‌شده که از افراد کلاهبرداری می‌کند تا جزئیات دسترسی یا اطلاعات ارزشمند را به اشتراک بگذارند.

ChatGPT بخشی از یک روند جدید به نام هوش مصنوعی مولد است. در حالی که پاراگراف های نوشته شده را تداعی می کند، مولدهای تصویر مانند DALL-E و Stable Diffusion در عرض چند دقیقه هنر تماشایی خلق می کنند. چندین شرکت، از جمله گوگل، سیستم‌های هوش مصنوعی دارند که ویدیوهای واقعی تولید می‌کنند. سال گذشته، یک استارتاپ مصاحبه صوتی جعلی را بین ستاره پادکست جو روگان و مدیر عامل فقید اپل، استیو جابز – که توسط یک هوش مصنوعی ایجاد شده بود، به نمایش گذاشت.

سوارت می گوید: «مهندسی اجتماعی قدیمی ترین ترفند کتاب است. “این زمانی است که شخصی تظاهر به کسی یا چیز دیگری می کند. تروجان ها فکر می کردند که یک اسب چوبی بزرگ را به عنوان هدیه دریافت کرده اند، نه یک ارتش مهاجم. این هرگز تغییر نکرده است. مجرمان سایبری این کار را همیشه با استفاده از روش هایی مانند فیشینگ و انسان انجام می دهند. حملات میانی.”

OpenAI، شرکت سازنده ChatGPT، همچنین یک هوش مصنوعی به نام Codex ایجاد کرد که کدهای کامپیوتری را می نویسد. طولی نکشید که مجرمان و کارشناسان امنیتی ترکیب Codex و ChatGPT را برای ایجاد اسکریپت های هکر آزمایش کردند. انجمن های Darkweb، جایی که مجرمان آنلاین ملاقات می کنند، شروع به ارسال نمونه هایی از کد حمله تولید شده توسط هوش مصنوعی کردند. این روند نگران کننده است.

ChatGPT جرایم سایبری امروزی را تقویت خواهد کرد

شماره 1 2023 امنیت سایبری

گرهارد سوارت، مدیر ارشد فناوری در شرکت امنیت سایبری Performanta، می‌گوید: «می‌توانم ببینم که چگونه ChatGPT دسترسی به ابزارهای جرایم سایبری و یادگیری نحوه استفاده از آنها را آسان‌تر می‌کند، اما این یک نگرانی جانبی است، حداقل در حال حاضر. مشکل بزرگ‌تر این است که چگونه برای کلاهبرداری استفاده خواهد شد. ChatGPT و هوش مصنوعی های مشابه تهدیدات جرایم سایبری جدیدی ایجاد نمی کنند، آنها تهدیدات فعلی را بدتر می کنند.”

تهدید واقعی امنیت سایبری

انقلاب مولد هوش مصنوعی

«ChatGPT یک تازه وارد را در کدنویسی جرایم سایبری خوب نخواهد کرد. آنها هنوز برای ترکیب کدهای مختلف به تجربه زیادی نیاز دارند، اما یک هوش مصنوعی می تواند کدهایی را با سرعت و مقیاسی تولید کند که به مجرمان باتجربه کمک کند کارهای بیشتری و سریعتر انجام دهند. این می‌تواند به افراد بی‌تجربه کمک کند تا به بسیاری از ابزارهای جرم و جنایت در دسترس آنلاین دسترسی بهتری داشته باشند و نحوه استفاده از آنها را بیاموزند. فکر نمی‌کنم نگرانی‌های مربوط به جرایم سایبری بیش از حد مطرح شود. Swart می‌گوید: آنها فعلاً به این سادگی نیستند.

خوشبختانه دنیای امنیت سایبری این ترفندها را می شناسد. امنیت مدرن می تواند با حملات فیشینگ و جعل هویت مقابله کند. می‌تواند انواع ترفندهایی را که هوش مصنوعی تولید می‌کند شناسایی کرده و از آن جلوگیری کند، اما برای ایجاد این مزیت، مردم و شرکت‌ها باید امنیت را جدی‌تر بگیرند.

سوارت می‌گوید: «بیشتر حملات نه به این دلیل که نمی‌توانیم سیستم‌ها را به درستی ایمن کنیم، بلکه به این دلیل اتفاق می‌افتند که زحمت انجام این کار را نمی‌دهیم. آنها برای ایجاد آگاهی امنیتی با کارکنان همکاری نمی کنند و افراد امنیتی خود را در گفتگوهای تجاری دخالت نمی دهند. آنها چیزی را ایجاد نمی کنند که من آن را محیط امن سایبری می نامم.”

ChatGPT یک هوش مصنوعی جدید (AI) است که زبان طبیعی انسان را درک می کند و پاسخ های جامع و مختصری ارائه می دهد. می‌تواند به سؤالاتی که شبیه پاسخ‌های انسانی به نظر می‌رسند پاسخ دهد، مقاله‌هایی بنویسد که احساس می‌کند یک شخص نویسنده آن بوده است (به نگرانی معلمان و نویسندگان حرفه‌ای)، و همچنین می‌تواند کدهای رایانه‌ای ایجاد کند، که باعث ایجاد نگرانی در مورد استفاده از ChatGPT به عنوان یک جرم سایبری شود. ابزار ممکن است این اتفاق بیفتد، اما خطر واقعی در این است که چگونه این نرم‌افزار و همتایان آن می‌توانند جعل هویت و سایر حملات سایبری موجود را که در حال حاضر بسیار خوب کار می‌کنند، تقویت کنند.

«فیشینگ» زمانی است که شخصی برای فریب دادن کاربر، مکاتبات جعلی را جعل می‌کند، مانند تظاهر به بانک بودن و وادار کردن قربانی برای ورود به صفحه بانکی جعلی. حملات «Man-in-the-Middle» مکاتبات را رهگیری می کنند و جایگزین آن می شوند، به عنوان مثال، یک فاکتور با جزئیات بانکی تغییر یافته. مهندسی اجتماعی می‌تواند از تماس‌های تلفنی، پیام‌های فوری و سایر کانال‌های ارتباطی استفاده کند که برای فریب دادن کسی که فکر می‌کند با یک طرف قابل اعتماد سروکار دارد، طراحی شده است.

این تغییر به این معنی است که هر سازمانی که هنوز امنیت سایبری خود را مرتب نکرده است، هدف بزرگتری در پشت خود دارد. در آینده، هوش مصنوعی مولد ممکن است جرایم سایبری را به شدت تغییر دهد، اما ممکن است در حال حاضر آنچه را که مجرمان آنلاین می‌توانند انجام دهند، تقویت کند.



منبع: https://www.securitysa.com/18599R

از این منظر، هوش مصنوعی مولد می تواند به یک عامل قابل توجه جرایم سایبری تبدیل شود. مجرمان می توانند ایمیل هایی تولید کنند که زبان و سبک مدیران را تقلید کند. آنها می توانند به زبان های مختلف مکاتبه ایجاد کنند و حتی ممکن است صداها و چهره افراد را شبیه سازی کنند. هیچ مدرکی دال بر وقوع این فعالیت های اخیر وجود ندارد، اما دیگر علمی تخیلی نیست.