در ظاهر، این ممکن است مانند یک اختراع شگفت انگیز به نظر برسد که می تواند برای توضیح مفاهیم پیچیده به زبان ساده استفاده شود. ایده های خلاقانه را طوفان فکر کنید، یا حتی اقدامات خاصی مانند پشتیبانی مشتری، نوشتن یادداشت ها یا نگه داشتن صورتجلسه جلسات را خودکار کنید. با این حال، تهدیدی جدی برای امنیت سایبری است.
4. اتوماسیون حملات: ChatGPT همچنین میتواند برای خودکارسازی ایجاد پیامهای مخرب و ایمیلهای فیشینگ استفاده شود که این امکان را برای مهاجمان فراهم میکند تا حملات در مقیاس بزرگ را به طور مؤثرتری انجام دهند.
این بدان معناست که یک بازیگر بد میتواند از ChatGPT بخواهد که یک ایمیل کاملاً بیضرر بنویسد که میتواند حاوی پیوندی باشد که یک فایل مخرب را بارگیری میکند یا خواننده را متقاعد میکند که اطلاعات مخربی مانند جزئیات ورود به سیستم را ارائه دهد.
کاربر معمولی اینترنت نمی تواند کاری کند که این بازیگران از ایجاد نرم افزارهای مخرب با استفاده از ChatGPT جلوگیری کنند. این فقط به این معنی است که همه باید مراقب حملات احتمالی بدافزار باشند.
با این حال، اقدامات کاهشدهندهای وجود دارد که افراد و شرکتها میتوانند انجام دهند، از جمله آموزش آگاهی از امنیت در مدارس جدید. جرایم سایبری با سرعت کم در حال حرکت است. چند سال پیش، مجرمان سایبری در سرقت هویت تخصص داشتند، اما اکنون شبکه سازمان شما را تصرف میکنند، حسابهای بانکی شما را هک میکنند و دهها یا صدها هزار رند را سرقت میکنند.

در واقعیت، بسیاری از خطرات بالقوه امنیت سایبری در این فناوری چشمگیر وجود دارد که توسط OpenAI توسعه یافته و در حال حاضر به صورت رایگان در دسترس است.
توسط استفان اوسلر، یکی از بنیانگذاران و مدیر توسعه کسب و کار در Nclose.

در دنیای دسترسی دیجیتال و مدیریت هویت، هوش مصنوعی در زمینه هایی مانند تشخیص چهره، حتی از طریق موبایل، بسیار سریعتر حرکت کرده است. این پیشرفتها فقط ادامه خواهند داشت، از جمله شناسایی از راه دور از طریق دوربینهای نظارتی و همچنین تشخیص رفتار و شناسایی – فناوریهایی که قبلا توسعه یافته و به کار گرفته شدهاند. برادر بزرگ در آینده نزدیک تر از همیشه تماشا خواهد کرد.
با این حال، زمان تغییر کرده است، و قابلیتهای هوش مصنوعی به طور قابل توجهی پیشرفت کردهاند، با پیشرفتهای چشمگیرتری در خط لوله. در بازارهای کنترل دسترسی و مدیریت هویت، هوش مصنوعی به تازگی به عنوان یک موهبت برای کنترل دسترسی با توانایی آن در مدیریت دسترسی ایمن در دنیای فیزیکی و دیجیتالی دیده شده است. این روند فقط به رشد خود ادامه خواهد داد، اگرچه به آرامی به دلیل اینکه تاسیسات کنترل دسترسی فیزیکی طول عمر بیشتری نسبت به سایر فناوری ها دارند. بیشترین پیشرفتی که خواهیم دید در یکپارچه سازی دسترسی و فناوری های مدیریت ساختمان است.
پلتفرم هوشمندی مانند ChatGPT که با بهترین نیت ایجاد شده است، تنها بر بار کاربران اینترنت می افزاید تا همیشه هوشیار بمانند، به غریزه خود اعتماد کنند و همیشه خطرات مربوط به کلیک روی هر پیوند یا باز کردن یک پیوست را بدانند.

هوش مصنوعی مزایا و خطرات را به مردم و شرکت ها ارائه می دهد
SMART Access & Identity 2023 انتخاب سردبیر
در زیر دو نظر در مورد آخرین خبرساز هوش مصنوعی، چت ربات ChatGPT آورده شده است. بسیاری از مردم توسط شرکتهایی قربانی شدهاند که ادعا میکنند چتباتهای آنها از مشتریان پشتیبانی میکنند، وقتی متوجه میشوند که هوش مصنوعی تنها برای جلوگیری از صحبت کردن افراد با یک شخص واقعی و حل مشکلات یا سؤالاتشان، باعث ناامیدی مشتریان مذکور میشود. با همه حساب ها، این چت ربات یک چیز واقعی است و از تکنیک های یادگیری عمیق برای تولید متن و مکالمه استفاده می کند که اغلب غیرقابل تشخیص از آنچه توسط انسان های واقعی ایجاد شده است. این دنیای اخبار را طوفانی کرده است و توجه زیادی را به خود جلب کرده است، در حالی که الگوریتم های یادگیری خود را با همه افرادی که با آن بازی می کنند تغذیه می کند.
2. کلاهبرداری: تولید متن از طریق مدل های زبان ChatGPT به مهاجمان اجازه می دهد تا تبلیغات جعلی، فهرست ها و بسیاری از اشکال دیگر مواد کلاهبرداری ایجاد کنند.
آدرس ایمیل قانونی چیزی است که یک ربات زبان هوش مصنوعی مانند ChatGPT نمی تواند آن را جعل کند. حداقل الان نه.
وام)
هر پنج نکته بالا تهدیدات مشروعی برای شرکتها و همه کاربران اینترنت هستند که تنها با ادامه آموزش OpenAI به مدل خود رایجتر میشوند.
آنا کولارد.
اگر لیست بالا توانست شما را متقاعد کند، این فناوری در هدف خود موفق بوده است، هرچند در این مورد نه با نیت مخرب. ChatGPT تمام متن را از نقطه یک تا پنج با حداقل تغییرات برای وضوح نوشت. این ابزار به قدری قدرتمند است که می تواند به طور قانع کننده ای خطرات ذاتی خود را برای امنیت سایبری شناسایی و بیان کند.
این خطر به ویژه در ایمیل های فیشینگ رایج است، روشی که اغلب توسط مجرمان برای ارائه بدافزارهای تعبیه شده در لینک ها یا پیوست ها استفاده می شود. معمولاً، املای ضعیف و دستور زبان نامنسجم، گویاترین ویژگی یک ایمیل کلاهبرداری است. «همه میدانند که در ایمیلها به دنبال عبارات مبهم باشند و سپس هرگز روی پیوندها کلیک نکنند یا پیوستها را در چنین ایمیلهایی باز نکنند، اما ChatGPT یک تهدید جدید به همراه دارد: ایمیلهای کاملاً نوشته شده و با صدایی انسانی که میتوانند بسیار بسیار زیاد باشند. قانع کننده.»
یک شگفتی برای برخی، یک تهدید امنیت سایبری برای بیشتر
خطرات امنیت سایبری در پشت فناوری جدید چشمگیر
بنابراین، در حالی که هوش مصنوعی مزایای مثبت زیادی خواهد داشت که نه تنها بازارهای دسترسی و شناسایی، کارایی عملیاتی و آگاهی از موقعیت را فراتر از تواناییهای انسانی افزایش میدهد، ما همچنین شاهد فناوریهایی خواهیم بود که برای ایجاد و استقرار برخی از خطرناکترین تهدیدات سایبری استفاده میشوند.
اینجا تنها تعداد کمی از آنها هستند:
5. ارسال هرزنامه: مدل زبان را می توان برای تولید مقادیر زیادی محتوای با کیفیت پایین تنظیم کرد که می تواند در زمینه های مختلف، از جمله به عنوان نظرات هرزنامه در رسانه های اجتماعی یا در کمپین های ایمیل هرزنامه استفاده شود.
اکنون می توان از یک ربات چت مصنوعی در دسترس عموم برای تولید یک زنجیره عفونت کامل استفاده کرد، که احتمالاً با یک ایمیل فیشینگ نیزه ای نوشته شده به زبانی کاملاً شبیه انسان شروع می شود و در نهایت باعث تسخیر کامل سیستم های رایانه ای یک شرکت می شود.
ChatGPT از زمان راه اندازی آن در پایان نوامبر سال گذشته، آماتورها و کارشناسان صنعت را خیره کرده است. ChatGPT میتواند به سؤالات پیچیده پاسخ دهد، پیشنهاداتی ارائه دهد و حتی کدهای برنامهنویسی را اشکالزدایی کند، در حالی که بسیار انسانی به نظر میرسد.
3. جعل هویت: ChatGPT را می توان برای ایجاد یک کپی دیجیتال قانع کننده از سبک نوشتاری یک فرد استفاده کرد و به مهاجمان این امکان را می دهد که هدف خود را در یک تنظیمات متنی، مانند ایمیل یا پیام متنی جعل هویت کنند.
در دنیای کنترل دسترسی، تواناییهای ChatGPT یک تهدید واقعی برای افراد و شرکتهایی است که در حال تلاش برای دفاع از دسترسی و هویت در برابر حملات فیشینگ هستند.
طبق گزارش ها، مایکروسافت در حال سرمایه گذاری 10 میلیارد دلاری در OpenAI، مالک چت بات مدل زبان بزرگ تا حدودی بحث برانگیز ChatGPT است. از یک تکنیک یادگیری عمیق برای تولید متن و مکالمه استفاده میکند که اغلب غیرقابل تشخیص از آنچه توسط انسانهای واقعی ایجاد میشود.
مجرمان سایبری در متقاعد کردن چشمان آموزش ندیده که قابل اعتماد هستند بسیار خوب عمل کرده اند. با ظهور ChatGPT، تشخیص تقلبی ها از معامله واقعی حتی سخت تر خواهد شد. اگر گیرنده یک ایمیل واقعاً صحیح است، کاربران اینترنت همیشه باید دوبار، بدون بررسی سه گانه. همیشه مطمئن شوید که از دریافت کنندگان صحیح ایمیل دریافت می کنید و برای آنها ارسال می کنید.
باور اینکه الگوریتم یادگیری ماشینی متن را ایجاد کرده است بسیار سخت است. ChatGPT با این سوال که چگونه کار می کند، توضیح داد که از “مجموعه داده بزرگی از متن” استفاده می کند تا “دانش در مورد طیف گسترده ای از موضوعات داشته باشد و بتواند به طیف گسترده ای از سوالات و درخواست ها پاسخ دهد”.
1. مهندسی اجتماعی: از مدل زبان قدرتمند ChatGPT می توان برای تولید پیام های فیشینگ واقع بینانه و قانع کننده استفاده کرد و این کار را برای مهاجمان آسان تر می کند تا قربانیان را برای ارائه اطلاعات حساس یا دانلود بدافزار فریب دهند.
محققان در Checkpoint اخیراً چنین ایمیل فیشینگ قابل قبولی را به عنوان آزمایش ایجاد کرده اند. آنها فقط از ChatGPT استفاده کردند، یک ربات چت که از تکنیک های یادگیری عمیق برای تولید متن و مکالماتی استفاده می کند که می تواند هر کسی را متقاعد کند که یک شخص واقعی آن را نوشته است.
استفان اوسلر.
شرکتها برای سرمایهگذاری در ChatGPT صف میکشند، اما این ابزار مبتکرانه برای ایجاد متنی شبیه انسان چه خطراتی دارد؟
هوش مصنوعی (AI) و تمام مشتقات آن در چند سال گذشته به یک منبع اصلی در اخبار تبدیل شده است. درست مانند تجزیه و تحلیل ویدئویی در مراحل اولیه خود، مروجین هوش مصنوعی مزایا را بیش از حد فروختند و این فناوری به طور کلی نتوانست به وعده های خود عمل کند.