با این حال، هوش مصنوعی مولد همچنان یک خطر بسیار واقعی امنیت سایبری است. جرایم سایبری اغلب از مهندسی اجتماعی استفاده میکند، مجموعهای از تکنیکهای اثباتشده که از افراد کلاهبرداری میکند تا جزئیات دسترسی یا اطلاعات ارزشمند را به اشتراک بگذارند.

ChatGPT بخشی از یک روند جدید به نام هوش مصنوعی مولد است. در حالی که پاراگراف های نوشته شده را تداعی می کند، مولدهای تصویر مانند DALL-E و Stable Diffusion در عرض چند دقیقه هنر تماشایی خلق می کنند. چندین شرکت، از جمله گوگل، سیستمهای هوش مصنوعی دارند که ویدیوهای واقعی تولید میکنند. سال گذشته، یک استارتاپ مصاحبه صوتی جعلی را بین ستاره پادکست جو روگان و مدیر عامل فقید اپل، استیو جابز – که توسط یک هوش مصنوعی ایجاد شده بود، به نمایش گذاشت.
سوارت می گوید: «مهندسی اجتماعی قدیمی ترین ترفند کتاب است. “این زمانی است که شخصی تظاهر به کسی یا چیز دیگری می کند. تروجان ها فکر می کردند که یک اسب چوبی بزرگ را به عنوان هدیه دریافت کرده اند، نه یک ارتش مهاجم. این هرگز تغییر نکرده است. مجرمان سایبری این کار را همیشه با استفاده از روش هایی مانند فیشینگ و انسان انجام می دهند. حملات میانی.”
OpenAI، شرکت سازنده ChatGPT، همچنین یک هوش مصنوعی به نام Codex ایجاد کرد که کدهای کامپیوتری را می نویسد. طولی نکشید که مجرمان و کارشناسان امنیتی ترکیب Codex و ChatGPT را برای ایجاد اسکریپت های هکر آزمایش کردند. انجمن های Darkweb، جایی که مجرمان آنلاین ملاقات می کنند، شروع به ارسال نمونه هایی از کد حمله تولید شده توسط هوش مصنوعی کردند. این روند نگران کننده است.

ChatGPT جرایم سایبری امروزی را تقویت خواهد کرد
شماره 1 2023 امنیت سایبری
گرهارد سوارت، مدیر ارشد فناوری در شرکت امنیت سایبری Performanta، میگوید: «میتوانم ببینم که چگونه ChatGPT دسترسی به ابزارهای جرایم سایبری و یادگیری نحوه استفاده از آنها را آسانتر میکند، اما این یک نگرانی جانبی است، حداقل در حال حاضر. مشکل بزرگتر این است که چگونه برای کلاهبرداری استفاده خواهد شد. ChatGPT و هوش مصنوعی های مشابه تهدیدات جرایم سایبری جدیدی ایجاد نمی کنند، آنها تهدیدات فعلی را بدتر می کنند.”
تهدید واقعی امنیت سایبری
انقلاب مولد هوش مصنوعی
«ChatGPT یک تازه وارد را در کدنویسی جرایم سایبری خوب نخواهد کرد. آنها هنوز برای ترکیب کدهای مختلف به تجربه زیادی نیاز دارند، اما یک هوش مصنوعی می تواند کدهایی را با سرعت و مقیاسی تولید کند که به مجرمان باتجربه کمک کند کارهای بیشتری و سریعتر انجام دهند. این میتواند به افراد بیتجربه کمک کند تا به بسیاری از ابزارهای جرم و جنایت در دسترس آنلاین دسترسی بهتری داشته باشند و نحوه استفاده از آنها را بیاموزند. فکر نمیکنم نگرانیهای مربوط به جرایم سایبری بیش از حد مطرح شود. Swart میگوید: آنها فعلاً به این سادگی نیستند.
خوشبختانه دنیای امنیت سایبری این ترفندها را می شناسد. امنیت مدرن می تواند با حملات فیشینگ و جعل هویت مقابله کند. میتواند انواع ترفندهایی را که هوش مصنوعی تولید میکند شناسایی کرده و از آن جلوگیری کند، اما برای ایجاد این مزیت، مردم و شرکتها باید امنیت را جدیتر بگیرند.
سوارت میگوید: «بیشتر حملات نه به این دلیل که نمیتوانیم سیستمها را به درستی ایمن کنیم، بلکه به این دلیل اتفاق میافتند که زحمت انجام این کار را نمیدهیم. آنها برای ایجاد آگاهی امنیتی با کارکنان همکاری نمی کنند و افراد امنیتی خود را در گفتگوهای تجاری دخالت نمی دهند. آنها چیزی را ایجاد نمی کنند که من آن را محیط امن سایبری می نامم.”
ChatGPT یک هوش مصنوعی جدید (AI) است که زبان طبیعی انسان را درک می کند و پاسخ های جامع و مختصری ارائه می دهد. میتواند به سؤالاتی که شبیه پاسخهای انسانی به نظر میرسند پاسخ دهد، مقالههایی بنویسد که احساس میکند یک شخص نویسنده آن بوده است (به نگرانی معلمان و نویسندگان حرفهای)، و همچنین میتواند کدهای رایانهای ایجاد کند، که باعث ایجاد نگرانی در مورد استفاده از ChatGPT به عنوان یک جرم سایبری شود. ابزار ممکن است این اتفاق بیفتد، اما خطر واقعی در این است که چگونه این نرمافزار و همتایان آن میتوانند جعل هویت و سایر حملات سایبری موجود را که در حال حاضر بسیار خوب کار میکنند، تقویت کنند.
«فیشینگ» زمانی است که شخصی برای فریب دادن کاربر، مکاتبات جعلی را جعل میکند، مانند تظاهر به بانک بودن و وادار کردن قربانی برای ورود به صفحه بانکی جعلی. حملات «Man-in-the-Middle» مکاتبات را رهگیری می کنند و جایگزین آن می شوند، به عنوان مثال، یک فاکتور با جزئیات بانکی تغییر یافته. مهندسی اجتماعی میتواند از تماسهای تلفنی، پیامهای فوری و سایر کانالهای ارتباطی استفاده کند که برای فریب دادن کسی که فکر میکند با یک طرف قابل اعتماد سروکار دارد، طراحی شده است.
این تغییر به این معنی است که هر سازمانی که هنوز امنیت سایبری خود را مرتب نکرده است، هدف بزرگتری در پشت خود دارد. در آینده، هوش مصنوعی مولد ممکن است جرایم سایبری را به شدت تغییر دهد، اما ممکن است در حال حاضر آنچه را که مجرمان آنلاین میتوانند انجام دهند، تقویت کند.
منبع: https://www.securitysa.com/18599R
از این منظر، هوش مصنوعی مولد می تواند به یک عامل قابل توجه جرایم سایبری تبدیل شود. مجرمان می توانند ایمیل هایی تولید کنند که زبان و سبک مدیران را تقلید کند. آنها می توانند به زبان های مختلف مکاتبه ایجاد کنند و حتی ممکن است صداها و چهره افراد را شبیه سازی کنند. هیچ مدرکی دال بر وقوع این فعالیت های اخیر وجود ندارد، اما دیگر علمی تخیلی نیست.