
آیا ChatGPT قادر به تقلب در هویت است؟ سایمون هورسول، متخصص تقلب در شرکت محصولات هویت دیجیتال می پرسد اونفیدو.
هوش مصنوعی مولد، بهویژه ChatGPT، به صحنه جهانی راه یافته و توجه میلیونها نفر را به خود جلب کرده است. هنگامی که کاربران ثبت نام می کنند، می توانند درخواست یا سوالی را وارد کنند – هر چیزی، از فلسفه، ادبیات و تاریخ گرفته تا توسعه یک استراتژی تجاری یا ایجاد شعر – و هوش مصنوعی پاسخ های کامل، از نظر گرامری صحیح و اغلب ارجاع داده شده را برمی گرداند. ChatGPT حتی اخیراً مصاحبه کدنویسی گوگل برای مهندس سطح 3 را پشت سر گذاشته است و امتحانات را از دانشکده های حقوق و بازرگانی گذرانده است.
در دو ماه اول راه اندازی، این ابزار بیش از 100 میلیون کاربر جمع آوری کرد و آن را به سریع ترین برنامه مصرف کننده در حال رشد تبدیل کرد. از آن زمان، مایکروسافت متعهد شده است که 10 میلیارد دلار در شرکت مادر خود – OpenAI سرمایه گذاری کند و موتور جستجوی خود را به روز کرده است. بینگ با ادغام های ChatGPT.
اما، با بررسی موارد استفاده برای ChatGPT و دیگر پلتفرمهای هوش مصنوعی مانند DALL-E، نگرانیها در مورد اینکه آیا این ابزارها میتوانند به دلایل شوم مورد استفاده قرار گیرند، افزایش مییابد. به عنوان مثال، در زمینه هویت دیجیتال، سؤالاتی مطرح می شود که آیا می توان از ابزارهای هوش مصنوعی برای کمک به کلاهبرداران، ارتکاب جرم و به چالش کشیدن بررسی های KYC (مشتری خود را بشناسید) و دفاع امنیت سایبری استفاده کرد.
چشم انداز تقلب در هویت
ChatGPT در زمان افزایش خطر تقلب هویت ظاهر شده است. به دنبال افزایش کلاهبرداری های آنلاین در طول همه گیری کووید-19، نرخ ها هنوز به سطح قبل از همه گیری کاهش پیدا نکرده است، با هزینه جهانی تخمینی 4.37 میلیون پوند. کلاهبرداران تاکتیک هایی را با کارایی و مقیاس پذیری اعمال می کنند. در سالهای اخیر، جرایم پیچیده با رویکردهای جدیدی مانند کلاهبرداری هویت مصنوعی و حملات تکراری افزایش یافت. با این حال، در 12 ماه گذشته، آنچه ما به عنوان کلاهبرداری «آسان» یا کمتر پیچیده طبقهبندی میکنیم – مانند شناسنامههایی که به راحتی تشخیص داده میشوند – به طور چشمگیری تا 37 درصد افزایش یافته است. این تغییر در رفتار نشان میدهد که کلاهبرداران ترجیح میدهند از تلاشهای کم تلاش برای گسترش حملات به صورت انبوه استفاده کنند تا بتوانند دفاع یک سازمان را تحت الشعاع قرار دهند و امیدوار باشند که از بین برود.
آیا می توان از هوش مصنوعی مولد برای انجام کلاهبرداری هویت استفاده کرد؟
در حالی که OpenAI الگوریتم های خود را برای رد درخواست های غیراخلاقی آموزش داده است، چندین آسیب پذیری امنیتی جدی قبلاً افشا شده است. تنها چند هفته پس از راهاندازی، یک شرکت امنیت سایبری اسرائیلی نشان داد که چگونه ربات چت، زمانی که در کنار سیستم کدنویسی OpenAI Codex استفاده میشود، میتواند یک ایمیل فیشینگ ایجاد کند که قادر به حمل بار مخرب باشد.
سوال اصلی ما باقی ماند، بنابراین از ChatGPT پرسیدیم: “چگونه می توان از ChatGPT برای انجام کلاهبرداری هویت استفاده کرد؟”. اینگونه پاسخ داد:
“توجه به این نکته ضروری است که ChatGPT یک مدل زبان است و به تنهایی توانایی انجام کلاهبرداری هویت را ندارد. با این حال، اگر شخصی از ChatGPT برای تولید اطلاعات یا اسناد جعلی استفاده کند، به طور بالقوه می تواند از آن اطلاعات برای ارتکاب کلاهبرداری هویت استفاده کند. برای مثال، آنها میتوانند از ChatGPT برای تولید یک مدرک هویت جعلی مانند گواهینامه رانندگی یا پاسپورت استفاده کنند و سپس از آن سند برای ظاهر شدن به عنوان شخص دیگری استفاده کنند. این می تواند به آنها امکان دسترسی به اطلاعات حساس یا حساب های مالی را بدهد. مهم است که همیشه صحت اسناد یا اطلاعاتی را که دریافت میکنید تأیید کنید و هرگز اطلاعات شخصی خود را با کسی به اشتراک نگذارید مگر اینکه از هویت او مطمئن باشید.”
این پاسخی است که به طور قابل پیش بینی بر فرضیات تمرکز دارد، اما این دانش وجود دارد که کلاهبرداران می توانند برای تولید اطلاعات جعلی و اسناد هویتی (ID) به هوش مصنوعی Generative مراجعه کنند. با این حال، اطلاعات شخصی تنها عنصری نیست که یک شناسه را می سازد. اغلب یک عکس از صاحب شناسنامه همراه آن است. در حالی که ChatGPT فقط از تولید متن پشتیبانی می کند، سایر ابزارهای تولید کننده هوش مصنوعی، مانند DALL-E OpenAI، تصاویر را از توضیحات متن تولید می کنند.
آیا این امر می تواند مجرمان سایبری را قادر سازد که دیپ فیک ها را با اطلاعات دزدیده شده یا جعلی برای ایجاد شناسه های جعلی مطابقت دهند؟ نه کاملا. DALL-E هنوز یک فناوری نوپا با محدودیت است. توانایی ارائه دقیق چهره انسان را ندارد و نتایج گیج کننده ای را ارائه می دهد. با محدودیتهای حیاتی، این سیستمها هنوز چند سال با اجازه دادن به یک بازیگر مضر برای ارتکاب کلاهبرداری هویت در یک سیستم فاصله دارند. اما چیزی که میتوانیم ببینیم این است که به کلاهبرداران آماتور ابزارهایی داده میشود تا در مورد کلاهبرداری هویت بیاموزند و آموزش ببینند، و جعلهای متقاعدکنندهای از اسناد واقعی در صورت تقاضا و در مقیاس ایجاد کنند.
تقلب به عنوان یک سرویس
در سالهای اخیر شاهد انفجار کلاهبرداری بهعنوان یک سرویس بودهایم که در آن ابزارهای سفارشی ساخته شده به کلاهبرداران فروخته میشوند. این سرویسها از رباتهای رهگیری احراز هویت دو مرحلهای تا بستههای مجموعه کاملی را شامل میشود که شامل کپی کردن کل وبسایتها در URLهای شبیه به هم میشود. در نتیجه، تعجب آور نخواهد بود که روزی ابزارهای تولید هوش مصنوعی متمرکز بر تقلب را در لیست قیمت مشاهده کنیم.
اما نیازی به بستن دریچه ها نیست. همانطور که کلاهبرداری هوشمندتر می شود، شناسایی نیز افزایش می یابد – و طبیعتاً فناوری در حال توسعه برای شناسایی محتوای تولید شده توسط ChatGPT است. به عنوان مثال، فناوری تأیید هویت مبتنی بر هوش مصنوعی برای شناسایی تلاشهای کلاهبرداری هویت به طور مداوم در حال پیشرفت است و سیگنالهای شناسایی غیرفعال کلاهبرداری، مانند هوشمندی دستگاه، میتواند بدون ایجاد اصطکاک، دید کاملتری از کاربر نهایی به کسبوکارها بدهد. به طور مشابه، فناوری تأیید بیومتریک که از کسبوکارها در برابر شناسههای سرقت شده و تقلب جعل هویت محافظت میکند نیز در حال تکامل است. تأیید بیومتریک مبتنی بر هوش مصنوعی میتواند جلوتر از جعلهای پیچیده، تشخیص عکسهای دستکاریشده، ارسال عکسهای گرفتهشده از صفحه دیگر، چاپ کردن یک تصویر، و همچنین ماسکهای ۲ بعدی و سه بعدی باشد.
بنابراین، آیا ابزارهای مولد هوش مصنوعی، مانند ChatGPT، دوران جدیدی از کلاهبرداری را به وجود خواهند آورد؟ نه. اما آنها بر نحوه ساخت ابزارهای تشخیص تقلب تأثیر خواهند گذاشت.
را نیز ببینید وبلاگ Onfido.
منبع: https://www.professionalsecurity.co.uk/news/interviews/a-question-for-chatgpt/