دراسة تؤكد: الذكاء الاصطناعي يبالغ في تقدير عقلانية البشر

الذكاء الاصطناعي
الذكاء الاصطناعي

كشفت دراسة حديثة أن نظرة نماذج الذكاء الاصطناعي إلى طريقة تفكير البشر قد تكون مفرطة في التفاؤل، إذ توصل باحثون إلى أن روبوتات الدردشة الشائعة، مثل «شات جي بي تي» التابع لشركة «أوبن إيه آي» و«كلود» من «أنثروبيك»، تميل إلى افتراض مستوى أعلى من العقلانية والمنطق لدى البشر مقارنة بالواقع، خاصة في المواقف التي تتطلب تفكيرًا استراتيجيًا.

 

الذكاء الاصطناعي

وأشارت الدراسة إلى أن هذا التباين بين توقعات الذكاء الاصطناعي لسلوك البشر ومستوى التفكير الفعلي لديهم قد يؤثر سلبًا في دقة هذه النماذج عند التنبؤ بالقرارات البشرية، لا سيما في المجالات الاقتصادية وغيرها من القطاعات المعتمدة على تحليل السلوك.

وفي هذا السياق، اختبر الباحثون عددًا من نماذج الذكاء الاصطناعي، من بينها «GPT-40» و«Claude-Sonnet-4»، باستخدام نظرية الألعاب الكلاسيكية المعروفة بـ«مسابقة الجمال الكينزية»، والتي تقوم على مبدأ توقع اختيارات الآخرين عند اتخاذ القرار، وفقًا لتقرير نشره موقع «ديجيتال تريندز» المتخصص في أخبار التكنولوجيا، واطلعت عليه «العربية Business».

وتعتمد المسابقة على فكرة أن الفوز لا يتحقق باختيار ما يفضله الفرد شخصيًا، بل من خلال التنبؤ بما سيختاره الآخرون، وهو ما يتطلب مستويات متقدمة من التفكير الاستراتيجي، غالبًا ما يواجه البشر صعوبة في تطبيقها عمليًا.

ولقياس أداء النماذج، طُلب منها المشاركة في نسخة من لعبة «خمن الرقم»، حيث يختار كل لاعب رقمًا بين صفر و100، ويُعد الفائز من يكون اختياره الأقرب إلى نصف متوسط اختيارات جميع المشاركين.

كما زُوّدت نماذج الذكاء الاصطناعي بمعلومات عن طبيعة منافسيها البشر، بدءًا من طلاب جامعيين في سنواتهم الأولى، وصولًا إلى خبراء في نظرية الألعاب، وطُلب منها ليس فقط اختيار الرقم، بل أيضًا تفسير أسباب اختيارها.

وأظهرت النتائج أن النماذج عدّلت قراراتها وفقًا لتقديرها لمستوى خصومها، لكنها في معظم الحالات افترضت درجة من التفكير المنطقي لا يعكسها سلوك اللاعبين الحقيقيين، ما جعلها «تبالغ في الذكاء» وفقًا لافتراضاتها، وتخفق في الوصول إلى النتائج الصحيحة.

تم نسخ الرابط