
آیا هوش مصنوعی ما را ایمن تر می کند؟ از مونیکا اوراکووا، مدیر اجرایی و یکی از بنیانگذاران پروتکل نائوریس می پرسد.
ChatGPT، ربات گفتگوی مبتنی بر هوش مصنوعی که قادر به درک زبان طبیعی انسان است، به نماد دیگری در اکوسیستم مخرب تبدیل شده است. با به دست آوردن بیش از یک میلیون کاربر ثبت نام شده تنها در پنج روز، به سریع ترین پلتفرم فناوری در حال رشد تبدیل شده است.
ChatGPT متن نوشته شده و نثر متفکرانه با جزئیات چشمگیر و قابل توجهی را به دنبال یک دستور ورودی متن ایجاد می کند. ChatGPT می تواند کدهایی را بنویسد و هک کند که از نظر infosec یک سردرد بزرگ بالقوه است و جامعه Web3 را به آتش کشیده است. آنها از پیامدها و نبوغ محض این چت ربات هوش مصنوعی که می تواند کدها را تجزیه و تحلیل کند و آسیب پذیری ها را در چند ثانیه شناسایی کند، متحمل شده اند.
پروتکل نائوریس POV:
پس از تبلیغات پیرامون ChatGPT، اکنون رقابت بین Chat GPT OpenAI و LaMDA گوگل در جریان است تا ابزار جستجوی NLP پیشرو در بازار برای کاربران و شرکتها باشد. OpenAI مبتدی است با 1 میلیارد دلار بودجه و ارزش گذاری 20 میلیارد دلار، برخلاف درآمد بالای 281 میلیارد دلاری گوگل. با این حال، گوگل باید به سرعت نوآوری کند و خود را با آن سازگار کند یا در خطر عقب ماندن باشد، به عنوان مثال می توان به TikTok و Meta اشاره کرد، با فرمت کوتاه TikTok که منجر به تبدیل شدن به برنامه Zeitgeist می شود تا در سال 2022، فیس بوک را شکست دهد. گوگل این موضوع را جدی می گیرد. یک «کد قرمز» برای توسعه یک محصول جدید موتور جستجو مبتنی بر هوش مصنوعی برای مقابله با تصرف زمین توسط OpenAI. از قضا، ChatGPT از همان پلتفرم هوش مصنوعی مکالمه ای استفاده می کند که توسط مهندسان گوگل در سال 2017 توسعه یافته است.
اینکه چگونه این امر بر امنیت سایبری در آینده تأثیر خواهد گذاشت، ناشناخته است، اما برخی فرضیات وجود دارد. در درازمدت، اگر کنترلها و تعادلهای لازم وجود داشته باشد، این امر برای آینده امنیت سایبری مثبت خواهد بود. در کوتاه مدت، هوش مصنوعی آسیبپذیریهایی را آشکار میکند که باید برطرف شوند، زیرا میتوانیم شاهد افزایش احتمالی نقضها باشیم.
هوش مصنوعی که کد می نویسد و هک می کند می تواند برای شرکت ها، سیستم ها و شبکه ها مشکل ایجاد کند. امنیت سایبری کنونی در حال حاضر با افزایش تصاعدی در هک ها در همه بخش ها شکست خورده است، به طوری که گزارش شده است که سال 2022 در مقایسه با سال 2021 50 درصد افزایش یافته است.
با بلوغ هوش مصنوعی، موارد استفاده می تواند برای گردش کار امنیت و توسعه سازمانی مثبت باشد، که قابلیت های دفاعی را بالاتر از استانداردهای امنیتی فعلی (موجود) افزایش می دهد. پروتکل Naoris از Swarm AI به عنوان بخشی از سیستم تشخیص نقض خود استفاده می کند که تمام دستگاه های شبکه و قراردادهای هوشمند را در زمان واقعی نظارت می کند.
● هوش مصنوعی میتواند به سازمانها کمک کند تا دفاع امنیت سایبری خود را از طریق شناسایی، درک و پاسخگویی بهتر به تهدیدات احتمالی، بهبود بخشند. هوش مصنوعی همچنین میتواند به سازمانها در واکنش سریعتر و مؤثرتر به حملات سایبری کمک کند و از طریق خودکار کردن وظایفی مانند واکنش و بررسی حادثه، به آنها کمک کند. این می تواند منابع انسانی را برای تمرکز بر روی وظایف استراتژیک تر و سطح بالا آزاد کند.
● با تجزیه و تحلیل حجم زیادی از داده ها و استفاده از الگوریتم های پیشرفته یادگیری ماشین، هوش مصنوعی می تواند (در آینده) الگوها و روندهایی را شناسایی کند که ممکن است نشان دهنده قریب الوقوع بودن حمله سایبری باشد، به سازمان ها اجازه می دهد تا اقدامات پیشگیرانه را قبل از وقوع حمله انجام دهند و خطر نقض داده ها را به حداقل برسانند. و سایر حوادث سایبری
● پذیرش هوش مصنوعی می تواند به سازمان ها کمک کند تا یک قدم جلوتر از حملات احتمالی باشند و از داده ها و سیستم های حساس خود محافظت کنند. با ادغام هوش مصنوعی در خط لوله تولید یک سازمان برای ایجاد کدهای هوشمندتر و قوی تر، با توسعه دهندگانی که به هوش مصنوعی دستور می دهند، بنویسند، تولید و ممیزی کنند (برنامه نویسی موجود).
● هوش مصنوعی در حال حاضر نمیتواند جایگزین توسعهدهندگان شود، زیرا نمیتواند تمام تفاوتهای ظریف سیستمها (و منطق تجاری) و نحوه کار آنها را با هم درک کند. توسعه دهندگان همچنان نیاز به خواندن و نقد خروجی هوش مصنوعی، الگوهای یادگیری، جستجوی نقاط ضعف دارند. هوش مصنوعی تأثیر مثبتی بر توانایی تیم CISO و IT برای نظارت در زمان واقعی خواهد داشت. بودجه های امنیتی کاهش می یابد، تعداد تیم های امنیت سایبری نیز کاهش می یابد. فقط کسانی که می توانند با هوش مصنوعی کار کنند و آن را تفسیر کنند مورد تقاضا خواهند بود.
با این حال، بازیگران بد میتوانند بردار حمله را افزایش دهند، هوشمندانهتر و سریعتر عمل کنند و به هوش مصنوعی دستور دهند که به دنبال اکسپلویتها و آسیبپذیریها در زیرساخت کد موجود باشد. حقیقت سخت سرد میتواند به این معنا باشد که هزاران پلتفرم و قراردادهای هوشمند میتوانند ناگهان افشا شوند و منجر به افزایش کوتاهمدت نقضهای سایبری شود.
● از آنجایی که ChatGPT و LaMDA برای عملکرد مؤثر به مقادیر زیادی داده متکی هستند، اگر دادههای مورد استفاده برای آموزش این فناوریها مغرضانه یا ناقص باشد، میتواند منجر به نتایج نادرست یا ناقص شود، به عنوان مثال TAY AI مایکروسافت در عرض چند ساعت بد شد. پروتکل نائوریس از هوش مصنوعی Swarm فقط برای نظارت بر ابرداده خطوط پایه عملیاتی شناخته شده دستگاه ها و سیستم ها استفاده می کند و اطمینان حاصل می کند که آنها به هیچ وجه دستکاری نشده اند. بنابراین، Naoris Protocol AI تنها تغییرات رفتاری در دستگاهها و شبکهها را شناسایی میکند و به خطوط پایه صنعت شناختهشده (بهروزرسانیهای سیستمعامل و سیستمافزار و غیره) ارجاع میدهد تا اینکه بر اساس نظرات مختلف فردی بیاموزد و تصمیم بگیرد.
● مسئله دیگر این است که هوش مصنوعی بی خطا نیست و همچنان می تواند در برابر حملات سایبری یا سایر اشکال دستکاری آسیب پذیر باشد. این بدان معناست که سازمانها برای محافظت از این فناوریها و اطمینان از یکپارچگی آنها باید تدابیر امنیتی قوی داشته باشند.
● همچنین مهم است که پیامدهای اخلاقی بالقوه استفاده از ChatGPT و LaMDA برای امنیت سایبری در نظر گرفته شود. برای مثال، ممکن است نگرانیهایی در مورد حفظ حریم خصوصی و استفاده از دادههای شخصی برای آموزش این فناوریها یا احتمال استفاده از آنها برای اهداف مخرب وجود داشته باشد. با این حال، پروتکل Naoris فقط ابرداده ها و تغییرات رفتاری در دستگاه ها و قراردادهای هوشمند را نظارت می کند، و نه هر نوع اطلاعات شناسایی شخصی (PII).
نتیجه
هوش مصنوعی از شرکت ها می خواهد که بازی خود را ارتقا دهند. آنها باید قبل از راهاندازی هر کد / برنامه جدید، خدمات هوش مصنوعی را در فرآیندهای گردش کار QA امنیتی خود پیادهسازی و استفاده کنند. هوش مصنوعی یک انسان نیست. از پیشبرداشتهای اولیه، دانش و ظرافتهایی که فقط انسانها میبینند، غافل خواهد شد. این ابزاری است که آسیب پذیری هایی را که به اشتباه توسط انسان کدگذاری شده اند را بهبود می بخشد. این به طور جدی کیفیت کد را در تمام سازمان های web2 و web3 بهبود می بخشد. زمان تشخیص نقض فعلی که توسط IBM (گزارش امنیت داده 2020 IBM) اندازهگیری میشود، به طور متوسط تا 280 است. با استفاده از سیستمهای هوش مصنوعی مانند راهحل امنیت سایبری Naoris Protocol به عنوان بخشی از دفاع سازمانی در وضعیت عمیق، زمانهای تشخیص نقض را میتوان به کمتر از یک ثانیه کاهش داد که بازی را تغییر میدهد.
شایان ذکر است که هوش مصنوعی یک فناوری نسبتاً جدید است و هنوز در حال توسعه و اصلاح است، بنابراین ما هرگز نمیتوانیم 100 درصد به خروجی آن اعتماد کنیم. توسعه دهندگان انسانی همیشه مورد نیاز خواهند بود تا اطمینان حاصل کنند که کد مطابق با الزامات تجاری سازمان است. با این حال، هوش مصنوعی توسط هر دو طرف – از بازیگران خوب و بد در تلاش برای برتری دادن به آنها استفاده می شود. از آنجایی که مقررات چندین سال پشت سر فناوری کار می کند، ما به سازمان ها نیاز داریم تا ذهنیت ایمن سایبری را در سراسر نیروی کار خود پیاده سازی کنند تا با تعداد فزاینده هک های در حال تکامل مبارزه کنند. جن در حال حاضر از بطری خارج شده است و اگر یک طرف از آخرین فناوری استفاده نکند، در موقعیت بازنده قرار خواهد گرفت. بنابراین اگر یک هوش مصنوعی تهاجمی وجود داشته باشد، شرکت ها به بهترین ابزار هوش مصنوعی برای دفاع از خود نیاز خواهند داشت. این یک مسابقه تسلیحاتی است که چه کسی بهترین ابزار را دارد.
منبع: https://www.professionalsecurity.co.uk/news/interviews/chatbot-implications/