مفاهیم چت بات | امنیت حرفه ای


آیا هوش مصنوعی ما را ایمن تر می کند؟ از مونیکا اوراکووا، مدیر اجرایی و یکی از بنیانگذاران پروتکل نائوریس می پرسد.

ChatGPT، ربات گفتگوی مبتنی بر هوش مصنوعی که قادر به درک زبان طبیعی انسان است، به نماد دیگری در اکوسیستم مخرب تبدیل شده است. با به دست آوردن بیش از یک میلیون کاربر ثبت نام شده تنها در پنج روز، به سریع ترین پلتفرم فناوری در حال رشد تبدیل شده است.

ChatGPT متن نوشته شده و نثر متفکرانه با جزئیات چشمگیر و قابل توجهی را به دنبال یک دستور ورودی متن ایجاد می کند. ChatGPT می تواند کدهایی را بنویسد و هک کند که از نظر infosec یک سردرد بزرگ بالقوه است و جامعه Web3 را به آتش کشیده است. آنها از پیامدها و نبوغ محض این چت ربات هوش مصنوعی که می تواند کدها را تجزیه و تحلیل کند و آسیب پذیری ها را در چند ثانیه شناسایی کند، متحمل شده اند.

پروتکل نائوریس POV:

پس از تبلیغات پیرامون ChatGPT، اکنون رقابت بین Chat GPT OpenAI و LaMDA گوگل در جریان است تا ابزار جستجوی NLP پیشرو در بازار برای کاربران و شرکت‌ها باشد. OpenAI مبتدی است با 1 میلیارد دلار بودجه و ارزش گذاری 20 میلیارد دلار، برخلاف درآمد بالای 281 میلیارد دلاری گوگل. با این حال، گوگل باید به سرعت نوآوری کند و خود را با آن سازگار کند یا در خطر عقب ماندن باشد، به عنوان مثال می توان به TikTok و Meta اشاره کرد، با فرمت کوتاه TikTok که منجر به تبدیل شدن به برنامه Zeitgeist می شود تا در سال 2022، فیس بوک را شکست دهد. گوگل این موضوع را جدی می گیرد. یک «کد قرمز» برای توسعه یک محصول جدید موتور جستجو مبتنی بر هوش مصنوعی برای مقابله با تصرف زمین توسط OpenAI. از قضا، ChatGPT از همان پلتفرم هوش مصنوعی مکالمه ای استفاده می کند که توسط مهندسان گوگل در سال 2017 توسعه یافته است.

اینکه چگونه این امر بر امنیت سایبری در آینده تأثیر خواهد گذاشت، ناشناخته است، اما برخی فرضیات وجود دارد. در درازمدت، اگر کنترل‌ها و تعادل‌های لازم وجود داشته باشد، این امر برای آینده امنیت سایبری مثبت خواهد بود. در کوتاه مدت، هوش مصنوعی آسیب‌پذیری‌هایی را آشکار می‌کند که باید برطرف شوند، زیرا می‌توانیم شاهد افزایش احتمالی نقض‌ها باشیم.

هوش مصنوعی که کد می نویسد و هک می کند می تواند برای شرکت ها، سیستم ها و شبکه ها مشکل ایجاد کند. امنیت سایبری کنونی در حال حاضر با افزایش تصاعدی در هک ها در همه بخش ها شکست خورده است، به طوری که گزارش شده است که سال 2022 در مقایسه با سال 2021 50 درصد افزایش یافته است.

با بلوغ هوش مصنوعی، موارد استفاده می تواند برای گردش کار امنیت و توسعه سازمانی مثبت باشد، که قابلیت های دفاعی را بالاتر از استانداردهای امنیتی فعلی (موجود) افزایش می دهد. پروتکل Naoris از Swarm AI به عنوان بخشی از سیستم تشخیص نقض خود استفاده می کند که تمام دستگاه های شبکه و قراردادهای هوشمند را در زمان واقعی نظارت می کند.

● هوش مصنوعی می‌تواند به سازمان‌ها کمک کند تا دفاع امنیت سایبری خود را از طریق شناسایی، درک و پاسخگویی بهتر به تهدیدات احتمالی، بهبود بخشند. هوش مصنوعی همچنین می‌تواند به سازمان‌ها در واکنش سریع‌تر و مؤثرتر به حملات سایبری کمک کند و از طریق خودکار کردن وظایفی مانند واکنش و بررسی حادثه، به آنها کمک کند. این می تواند منابع انسانی را برای تمرکز بر روی وظایف استراتژیک تر و سطح بالا آزاد کند.
● با تجزیه و تحلیل حجم زیادی از داده ها و استفاده از الگوریتم های پیشرفته یادگیری ماشین، هوش مصنوعی می تواند (در آینده) الگوها و روندهایی را شناسایی کند که ممکن است نشان دهنده قریب الوقوع بودن حمله سایبری باشد، به سازمان ها اجازه می دهد تا اقدامات پیشگیرانه را قبل از وقوع حمله انجام دهند و خطر نقض داده ها را به حداقل برسانند. و سایر حوادث سایبری
● پذیرش هوش مصنوعی می تواند به سازمان ها کمک کند تا یک قدم جلوتر از حملات احتمالی باشند و از داده ها و سیستم های حساس خود محافظت کنند. با ادغام هوش مصنوعی در خط لوله تولید یک سازمان برای ایجاد کدهای هوشمندتر و قوی تر، با توسعه دهندگانی که به هوش مصنوعی دستور می دهند، بنویسند، تولید و ممیزی کنند (برنامه نویسی موجود).
● هوش مصنوعی در حال حاضر نمی‌تواند جایگزین توسعه‌دهندگان شود، زیرا نمی‌تواند تمام تفاوت‌های ظریف سیستم‌ها (و منطق تجاری) و نحوه کار آنها را با هم درک کند. توسعه دهندگان همچنان نیاز به خواندن و نقد خروجی هوش مصنوعی، الگوهای یادگیری، جستجوی نقاط ضعف دارند. هوش مصنوعی تأثیر مثبتی بر توانایی تیم CISO و IT برای نظارت در زمان واقعی خواهد داشت. بودجه های امنیتی کاهش می یابد، تعداد تیم های امنیت سایبری نیز کاهش می یابد. فقط کسانی که می توانند با هوش مصنوعی کار کنند و آن را تفسیر کنند مورد تقاضا خواهند بود.

با این حال، بازیگران بد می‌توانند بردار حمله را افزایش دهند، هوشمندانه‌تر و سریع‌تر عمل کنند و به هوش مصنوعی دستور دهند که به دنبال اکسپلویت‌ها و آسیب‌پذیری‌ها در زیرساخت کد موجود باشد. حقیقت سخت سرد می‌تواند به این معنا باشد که هزاران پلتفرم و قراردادهای هوشمند می‌توانند ناگهان افشا شوند و منجر به افزایش کوتاه‌مدت نقض‌های سایبری شود.

● از آنجایی که ChatGPT و LaMDA برای عملکرد مؤثر به مقادیر زیادی داده متکی هستند، اگر داده‌های مورد استفاده برای آموزش این فناوری‌ها مغرضانه یا ناقص باشد، می‌تواند منجر به نتایج نادرست یا ناقص شود، به عنوان مثال TAY AI مایکروسافت در عرض چند ساعت بد شد. پروتکل نائوریس از هوش مصنوعی Swarm فقط برای نظارت بر ابرداده خطوط پایه عملیاتی شناخته شده دستگاه ها و سیستم ها استفاده می کند و اطمینان حاصل می کند که آنها به هیچ وجه دستکاری نشده اند. بنابراین، Naoris Protocol AI تنها تغییرات رفتاری در دستگاه‌ها و شبکه‌ها را شناسایی می‌کند و به خطوط پایه صنعت شناخته‌شده (به‌روزرسانی‌های سیستم‌عامل و سیستم‌افزار و غیره) ارجاع می‌دهد تا اینکه بر اساس نظرات مختلف فردی بیاموزد و تصمیم بگیرد.

● مسئله دیگر این است که هوش مصنوعی بی خطا نیست و همچنان می تواند در برابر حملات سایبری یا سایر اشکال دستکاری آسیب پذیر باشد. این بدان معناست که سازمان‌ها برای محافظت از این فناوری‌ها و اطمینان از یکپارچگی آنها باید تدابیر امنیتی قوی داشته باشند.

● همچنین مهم است که پیامدهای اخلاقی بالقوه استفاده از ChatGPT و LaMDA برای امنیت سایبری در نظر گرفته شود. برای مثال، ممکن است نگرانی‌هایی در مورد حفظ حریم خصوصی و استفاده از داده‌های شخصی برای آموزش این فناوری‌ها یا احتمال استفاده از آنها برای اهداف مخرب وجود داشته باشد. با این حال، پروتکل Naoris فقط ابرداده ها و تغییرات رفتاری در دستگاه ها و قراردادهای هوشمند را نظارت می کند، و نه هر نوع اطلاعات شناسایی شخصی (PII).

نتیجه

هوش مصنوعی از شرکت ها می خواهد که بازی خود را ارتقا دهند. آنها باید قبل از راه‌اندازی هر کد / برنامه جدید، خدمات هوش مصنوعی را در فرآیندهای گردش کار QA امنیتی خود پیاده‌سازی و استفاده کنند. هوش مصنوعی یک انسان نیست. از پیش‌برداشت‌های اولیه، دانش و ظرافت‌هایی که فقط انسان‌ها می‌بینند، غافل خواهد شد. این ابزاری است که آسیب پذیری هایی را که به اشتباه توسط انسان کدگذاری شده اند را بهبود می بخشد. این به طور جدی کیفیت کد را در تمام سازمان های web2 و web3 بهبود می بخشد. زمان تشخیص نقض فعلی که توسط IBM (گزارش امنیت داده 2020 IBM) اندازه‌گیری می‌شود، به طور متوسط ​​تا 280 است. با استفاده از سیستم‌های هوش مصنوعی مانند راه‌حل امنیت سایبری Naoris Protocol به عنوان بخشی از دفاع سازمانی در وضعیت عمیق، زمان‌های تشخیص نقض را می‌توان به کمتر از یک ثانیه کاهش داد که بازی را تغییر می‌دهد.

شایان ذکر است که هوش مصنوعی یک فناوری نسبتاً جدید است و هنوز در حال توسعه و اصلاح است، بنابراین ما هرگز نمی‌توانیم 100 درصد به خروجی آن اعتماد کنیم. توسعه دهندگان انسانی همیشه مورد نیاز خواهند بود تا اطمینان حاصل کنند که کد مطابق با الزامات تجاری سازمان است. با این حال، هوش مصنوعی توسط هر دو طرف – از بازیگران خوب و بد در تلاش برای برتری دادن به آنها استفاده می شود. از آنجایی که مقررات چندین سال پشت سر فناوری کار می کند، ما به سازمان ها نیاز داریم تا ذهنیت ایمن سایبری را در سراسر نیروی کار خود پیاده سازی کنند تا با تعداد فزاینده هک های در حال تکامل مبارزه کنند. جن در حال حاضر از بطری خارج شده است و اگر یک طرف از آخرین فناوری استفاده نکند، در موقعیت بازنده قرار خواهد گرفت. بنابراین اگر یک هوش مصنوعی تهاجمی وجود داشته باشد، شرکت ها به بهترین ابزار هوش مصنوعی برای دفاع از خود نیاز خواهند داشت. این یک مسابقه تسلیحاتی است که چه کسی بهترین ابزار را دارد.




منبع: https://www.professionalsecurity.co.uk/news/interviews/chatbot-implications/