
هومبريس
أظهرت دراسة جديدة أنه تماما مثل البشر، فإن روبوتات الدردشة الذكية اصطناعيا مثل ChatGPT ستغش وتكذب عليك إذا “ضغطت” عليها، حتى لو تم تصميمها لتكون صادقة وشفافة.
وظهر هذا السلوك الخادع بشكل عفوي عندما تم إعطاء الذكاء الإصطناعي نصائح حول “التداول الداخلي”، ثم كلف بجمع الأموال لمؤسسة قوية.
وكتب الخبراء في بحثهم المنشور على خادم ما قبل الطباعة arXiv: “في هذا التقرير، نعرض سيناريو واحداً حيث يتصرف “نموذج اللغة” بشكل غير صحيح و يخدع مستخدميه بشكل ممنهج دون أن يطلب منه التصرف بهذه الطريقة، على حد علمنا، هذا هو أول دليل على مثل هذا السلوك الخادع إستراتيجياً في أنظمة الذكاء الإصطناعي المصممة لتكون غير ضارة وصادقة”.
وفي الدراسة الجديدة، تم إعداد المحول التوليدي المدرّب مسبقا Transformer-4، أو GPT-4 (الذي يشغل ChatGPT Plus)، ليكون بمثابة نظام ذكاء إصطناعي يقوم بإستثمارات نيابة عن مؤسسة مالية.
وقام الباحثون بتغذية GPT-4 بمجموعة من المطالبات النصية لإنشاء بيئة محاكاة، و منح الذكاء الإصطناعي إمكانية الوصول إلى الأدوات المالية لتحليل الأسهم و تنفيذ الصفقات و التخطيط لخطواته التالية و تقديم التحديثات للمديرين في الشركة.
وتفاعل الباحثون مع الذكاء الإصطناعي من خلال واجهة الدردشة، و مارسوا الضغط عليه و أعطوا النموذج نصيحة و إنتظروا ليروا كيف سيتصرف.
وفي حوالي 75% من الحالات، عندما واجه GPT-4 هذه الشروط، نفذ صفقة تجارية بناء على المعلومات الداخلية التي تلقاها، ثم حاول التستر عليها عن طريق الكذب على مديريه بشأن تفكيره، و في حوالي 90% من الحالات، تضاعف الكذب.
وأجرى الفريق العديد من تجارب المتابعة، ما أدى إلى تغيير درجة تشجيع أو تثبيط المحفزات للأنشطة غير القانونية، بالإضافة إلى درجة الضغط الذي وضعوا النموذج تحته في بيئة المحاكاة.
ونظراً لأن هذا مجرد سيناريو واحد، لم يرغب الباحثون في إستخلاص إستنتاجات قاطعة حول مدى إحتمالية تواجد الذكاء الإصطناعي في بيئات العالم الحقيقي، لكنهم يريدون البناء على هذا العمل للتحقيق في هذا السلوك الغريب.