یک سوال برای ChatGPT | امنیت حرفه ای


آیا ChatGPT قادر به تقلب در هویت است؟ سایمون هورسول، متخصص تقلب در شرکت محصولات هویت دیجیتال می پرسد اونفیدو.

هوش مصنوعی مولد، به‌ویژه ChatGPT، به صحنه جهانی راه یافته و توجه میلیون‌ها نفر را به خود جلب کرده است. هنگامی که کاربران ثبت نام می کنند، می توانند درخواست یا سوالی را وارد کنند – هر چیزی، از فلسفه، ادبیات و تاریخ گرفته تا توسعه یک استراتژی تجاری یا ایجاد شعر – و هوش مصنوعی پاسخ های کامل، از نظر گرامری صحیح و اغلب ارجاع داده شده را برمی گرداند. ChatGPT حتی اخیراً مصاحبه کدنویسی گوگل برای مهندس سطح 3 را پشت سر گذاشته است و امتحانات را از دانشکده های حقوق و بازرگانی گذرانده است.

در دو ماه اول راه اندازی، این ابزار بیش از 100 میلیون کاربر جمع آوری کرد و آن را به سریع ترین برنامه مصرف کننده در حال رشد تبدیل کرد. از آن زمان، مایکروسافت متعهد شده است که 10 میلیارد دلار در شرکت مادر خود – OpenAI سرمایه گذاری کند و موتور جستجوی خود را به روز کرده است. بینگ با ادغام های ChatGPT.

اما، با بررسی موارد استفاده برای ChatGPT و دیگر پلتفرم‌های هوش مصنوعی مانند DALL-E، نگرانی‌ها در مورد اینکه آیا این ابزارها می‌توانند به دلایل شوم مورد استفاده قرار گیرند، افزایش می‌یابد. به عنوان مثال، در زمینه هویت دیجیتال، سؤالاتی مطرح می شود که آیا می توان از ابزارهای هوش مصنوعی برای کمک به کلاهبرداران، ارتکاب جرم و به چالش کشیدن بررسی های KYC (مشتری خود را بشناسید) و دفاع امنیت سایبری استفاده کرد.

چشم انداز تقلب در هویت

ChatGPT در زمان افزایش خطر تقلب هویت ظاهر شده است. به دنبال افزایش کلاهبرداری های آنلاین در طول همه گیری کووید-19، نرخ ها هنوز به سطح قبل از همه گیری کاهش پیدا نکرده است، با هزینه جهانی تخمینی 4.37 میلیون پوند. کلاهبرداران تاکتیک هایی را با کارایی و مقیاس پذیری اعمال می کنند. در سال‌های اخیر، جرایم پیچیده با رویکردهای جدیدی مانند کلاهبرداری هویت مصنوعی و حملات تکراری افزایش یافت. با این حال، در 12 ماه گذشته، آنچه ما به عنوان کلاهبرداری «آسان» یا کمتر پیچیده طبقه‌بندی می‌کنیم – مانند شناسنامه‌هایی که به راحتی تشخیص داده می‌شوند – به طور چشمگیری تا 37 درصد افزایش یافته است. این تغییر در رفتار نشان می‌دهد که کلاهبرداران ترجیح می‌دهند از تلاش‌های کم تلاش برای گسترش حملات به صورت انبوه استفاده کنند تا بتوانند دفاع یک سازمان را تحت الشعاع قرار دهند و امیدوار باشند که از بین برود.

آیا می توان از هوش مصنوعی مولد برای انجام کلاهبرداری هویت استفاده کرد؟

در حالی که OpenAI الگوریتم های خود را برای رد درخواست های غیراخلاقی آموزش داده است، چندین آسیب پذیری امنیتی جدی قبلاً افشا شده است. تنها چند هفته پس از راه‌اندازی، یک شرکت امنیت سایبری اسرائیلی نشان داد که چگونه ربات چت، زمانی که در کنار سیستم کدنویسی OpenAI Codex استفاده می‌شود، می‌تواند یک ایمیل فیشینگ ایجاد کند که قادر به حمل بار مخرب باشد.

سوال اصلی ما باقی ماند، بنابراین از ChatGPT پرسیدیم: “چگونه می توان از ChatGPT برای انجام کلاهبرداری هویت استفاده کرد؟”. اینگونه پاسخ داد:

توجه به این نکته ضروری است که ChatGPT یک مدل زبان است و به تنهایی توانایی انجام کلاهبرداری هویت را ندارد. با این حال، اگر شخصی از ChatGPT برای تولید اطلاعات یا اسناد جعلی استفاده کند، به طور بالقوه می تواند از آن اطلاعات برای ارتکاب کلاهبرداری هویت استفاده کند. برای مثال، آن‌ها می‌توانند از ChatGPT برای تولید یک مدرک هویت جعلی مانند گواهینامه رانندگی یا پاسپورت استفاده کنند و سپس از آن سند برای ظاهر شدن به عنوان شخص دیگری استفاده کنند. این می تواند به آنها امکان دسترسی به اطلاعات حساس یا حساب های مالی را بدهد. مهم است که همیشه صحت اسناد یا اطلاعاتی را که دریافت می‌کنید تأیید کنید و هرگز اطلاعات شخصی خود را با کسی به اشتراک نگذارید مگر اینکه از هویت او مطمئن باشید.

این پاسخی است که به طور قابل پیش بینی بر فرضیات تمرکز دارد، اما این دانش وجود دارد که کلاهبرداران می توانند برای تولید اطلاعات جعلی و اسناد هویتی (ID) به هوش مصنوعی Generative مراجعه کنند. با این حال، اطلاعات شخصی تنها عنصری نیست که یک شناسه را می سازد. اغلب یک عکس از صاحب شناسنامه همراه آن است. در حالی که ChatGPT فقط از تولید متن پشتیبانی می کند، سایر ابزارهای تولید کننده هوش مصنوعی، مانند DALL-E OpenAI، تصاویر را از توضیحات متن تولید می کنند.

آیا این امر می تواند مجرمان سایبری را قادر سازد که دیپ فیک ها را با اطلاعات دزدیده شده یا جعلی برای ایجاد شناسه های جعلی مطابقت دهند؟ نه کاملا. DALL-E هنوز یک فناوری نوپا با محدودیت است. توانایی ارائه دقیق چهره انسان را ندارد و نتایج گیج کننده ای را ارائه می دهد. با محدودیت‌های حیاتی، این سیستم‌ها هنوز چند سال با اجازه دادن به یک بازیگر مضر برای ارتکاب کلاهبرداری هویت در یک سیستم فاصله دارند. اما چیزی که می‌توانیم ببینیم این است که به کلاهبرداران آماتور ابزارهایی داده می‌شود تا در مورد کلاهبرداری هویت بیاموزند و آموزش ببینند، و جعل‌های متقاعدکننده‌ای از اسناد واقعی در صورت تقاضا و در مقیاس ایجاد کنند.

تقلب به عنوان یک سرویس

در سال‌های اخیر شاهد انفجار کلاهبرداری به‌عنوان یک سرویس بوده‌ایم که در آن ابزارهای سفارشی ساخته شده به کلاهبرداران فروخته می‌شوند. این سرویس‌ها از ربات‌های رهگیری احراز هویت دو مرحله‌ای تا بسته‌های مجموعه کاملی را شامل می‌شود که شامل کپی کردن کل وب‌سایت‌ها در URLهای شبیه به هم می‌شود. در نتیجه، تعجب آور نخواهد بود که روزی ابزارهای تولید هوش مصنوعی متمرکز بر تقلب را در لیست قیمت مشاهده کنیم.

اما نیازی به بستن دریچه ها نیست. همانطور که کلاهبرداری هوشمندتر می شود، شناسایی نیز افزایش می یابد – و طبیعتاً فناوری در حال توسعه برای شناسایی محتوای تولید شده توسط ChatGPT است. به عنوان مثال، فناوری تأیید هویت مبتنی بر هوش مصنوعی برای شناسایی تلاش‌های کلاهبرداری هویت به طور مداوم در حال پیشرفت است و سیگنال‌های شناسایی غیرفعال کلاهبرداری، مانند هوشمندی دستگاه، می‌تواند بدون ایجاد اصطکاک، دید کامل‌تری از کاربر نهایی به کسب‌وکارها بدهد. به طور مشابه، فناوری تأیید بیومتریک که از کسب‌وکارها در برابر شناسه‌های سرقت شده و تقلب جعل هویت محافظت می‌کند نیز در حال تکامل است. تأیید بیومتریک مبتنی بر هوش مصنوعی می‌تواند جلوتر از جعل‌های پیچیده، تشخیص عکس‌های دستکاری‌شده، ارسال عکس‌های گرفته‌شده از صفحه دیگر، چاپ کردن یک تصویر، و همچنین ماسک‌های ۲ بعدی و سه بعدی باشد.

بنابراین، آیا ابزارهای مولد هوش مصنوعی، مانند ChatGPT، دوران جدیدی از کلاهبرداری را به وجود خواهند آورد؟ نه. اما آنها بر نحوه ساخت ابزارهای تشخیص تقلب تأثیر خواهند گذاشت.

را نیز ببینید وبلاگ Onfido.




منبع: https://www.professionalsecurity.co.uk/news/interviews/a-question-for-chatgpt/