تحقیقات انجام شده توسط هربرت اسمیت فریهیلز نشان میدهد که فقط 5 درصد از مصرفکنندگان بریتانیایی نگران حضور رو به رشد هوش مصنوعی در زندگی روزمره نیستند. تنها 20 درصد معتقدند که سیستم های هوش مصنوعی قابل اعتماد هستند.
• افراد بالای 55 سال احتمال کمتری دارند (21%) نسبت به افراد 35 ساله یا کمتر (34%) که بگویند هوش مصنوعی به آنها کمک می کند تصمیمات بهتری بگیرند.
به مناسبت راه اندازی این شرکت انجام شده است آکادمی فناوری در حال ظهوراین تحقیق دیدگاههای بین 1000 مصرفکننده بین 18 تا 80 سال را مورد بررسی قرار داد. از پاسخدهندگان در مورد نوع سیستمهای هوش مصنوعی که امروزه استفاده میکنند، انتظارات در مورد استفاده در آینده و سطح راحتی با نحوه جمعآوری دادهها و عملکرد ماشینها سؤال شد. یافته های کلیدی عبارتند از:
آمار اضافی
• تنها 34 درصد از پاسخ دهندگان فکر می کنند هوش مصنوعی قابل اعتماد است.
• بهبود گفتگو و آموزش بهتر مصرف کنندگان و بازارها در مورد خطرات هوش مصنوعی: با وجود هیجان در مورد امکانات سیستم های هوش مصنوعی در حال حاضر و آینده، ترس و بی اعتمادی مصرف کنندگان از طریق گفتگوی متعادل در مورد مزایا و خطرات به حداقل می رسد.
– مدرن و در عین حال قدیمی: اگرچه بخش قابل توجهی قبول دارند که هوش مصنوعی می تواند به کاهش خطاهای انسانی کمک کند (44٪)، تنها 16٪ معتقدند ابزارهای هوش مصنوعی اطلاعات دقیقی را ارائه می دهند. بیش از یک سوم (38٪) نیز نگران این هستند که سیستم های هوش مصنوعی از اطلاعات قدیمی استفاده کنند.
– پاسخگو، اما نه مسئول: در حالی که 60٪ پذیرفته اند که هوش مصنوعی با ارائه سریع راه حل ها، جهان را کارآمدتر می کند، فقط نیمی از آنها (53٪) می گویند که نگران عدم پاسخگویی در سیستم های هوش مصنوعی هستند. یک سوم (31٪) همچنین نشان می دهد که ابزارهای هوش مصنوعی در برآورده کردن انتظارات اخلاقی یک مشکل است.
با وجود تبلیغات، بسیاری از مصرف کنندگان اذعان می کنند که به هوش مصنوعی اعتماد ندارند و بخش قابل توجهی نیز نسبت به مزایای آن ابراز بدبینی می کنند.
آماتو کراورو نتیجه گیری می کند: “کلید موفقیت بلندمدت گفتگو است تا هیاهو. گیر افتادن در هیاهو آسان است، اما ایجاد اعتماد به هوش مصنوعی مستلزم کاهش سر و صدا با تمرکز دقیق بر فرصت ها و خطرات است. در عین حال، سیاستگذاران باید با شفافسازی قوانین و مقررات موجود، اطمینان را به مصرفکنندگان و کسبوکارها ارائه کنند.»
• تسریع در توسعه و اجرای قوانین هوش مصنوعی الزام آور قانونی: هرچه سیاستگذاران زودتر بتوانند شکافهای موجود در مجموعه قوانین فعلی را که در مورد هوش مصنوعی اعمال میشود با قوانین، مقررات، راهنماییها و اصولی که برای هدف مناسب هستند و قوت قانون دارند برطرف کنند، مصرفکنندگان و کسبوکارها زودتر راحتتر با سیستمهای هوش مصنوعی درگیر خواهند شد. .
این تحقیق در ماه های مه و ژوئن 2023 انجام شد و بر اساس 1000 پاسخ دهنده انجام شد. پروفایل های پاسخ دهندگان شامل افرادی از جمله افرادی است که مشغول به کار تمام وقت و تحصیل هستند و در 11 منطقه انگلستان.
• افزایش همسویی میان سیاستگذاران داخلی و جهانی در زمینه هوش مصنوعی: خطرات مرتبط با هوش مصنوعی توسط چندین تنظیم کننده و مقامات نظارت می شود. برای رفع خلأهای موجود در مجموعه قوانین و مقررات موجود، به یک رویکرد هماهنگ نیاز است. با توجه به تعامل مصرف کنندگان با مشاغل در سراسر جهان، این گفتمان باید فراتر از سیاست داخلی باشد و به همسویی و قابلیت همکاری جهانی نیز بپردازد.
– ماشین های دستکاری: بیش از نیمی از آنها (56%) نمی پذیرند که هوش مصنوعی می تواند بی طرف باشد. علاوه بر این، بیش از یک سوم از پاسخ دهندگان (37٪) نگران هستند که خروجی های سیستم های هوش مصنوعی علیه گروه های خاص تعصب داشته باشد و بیش از نیمی (53٪) نیز از این بیم دارند که هوش مصنوعی با استفاده از اطلاعات اشتباه، تصمیماتی بگیرد که مستقیماً بر آنها تأثیر بگذارد.
• زنان کمتری (48%) نسبت به مردان (55%) با ایده شرکتهایی که از هوش مصنوعی برای تشخیص مشکلات سلامتی استفاده میکنند راحت هستند.
• افراد بیشتری (53%) نسبت به افرادی که فکر می کنند ایده خوبی است (29%) از ایده استفاده از هوش مصنوعی برای حل و فصل اختلافات قانونی ناراحت هستند.