دراسة: مستخدمو الذكاء الاصطناعي أكثر ميلاً للكذب والخداع
دراسة جديدة تحذّر من أنّ الأشخاص الذين يعتمدون على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية يكونون أكثر استعداداً لخداع الآخرين والكذب عليهم.
-
أنظمة الذكاء الاصطناعي تميل للامتثال بشكل متكرر للتعليمات غير الأخلاقية الصادرة عن مستخدميها غير النزيهين
كشف فريق من الباحثين الفرنسيين والألمان أنّ الاعتماد على الذكاء الاصطناعي في العمل أو الدراسة يزيد من ميل الأشخاص إلى الغش والخداع.
وأشار معهد "ماكس بلانك" للتنمية البشرية في مديتة برلين، إلى أنّ بعض المستخدمين ينسون تطبيق "مكابحهم الأخلاقية" عند تفويض المهام للذكاء الاصطناعي.
كما أوضح الباحثون أنّ الأشخاص كانوا أكثر عرضة للغش عندما سمح لهم الذكاء الاصطناعي بالتصرف نيابة عنهم، معربين عن دهشتهم من مستوى عدم الأمانة الذي لاحظوه.
1. AI is lying to you. A large study shows that people are far more likely to act dishonestly when they can delegate tasks to AI rather than do them themselves. pic.twitter.com/eKIeAWdQuK
— Brain & Mind Research ☮️ (@BrainMindRes) September 26, 2025
وأظهرت الدراسة، التي أجريت بالتعاون مع جامعة "دويسبورغ-إيسن" وكلية "تولوز" للاقتصاد، أنّ "أنظمة الذكاء الاصطناعي تميل للامتثال بشكل متكرر للتعليمات غير الأخلاقية الصادرة عن مستخدميها غير النزيهين".
واستشهد الباحثون بأمثلة عملية، مثل محطات الوقود التي تستخدم خوارزميات لتنسيق الأسعار مع المنافسين، وتطبيقات النقل التي تشجع السائقين على خلق نقص مصطنع في السيارات لزيادة الأسعار.
كما أظهرت النتائج أنّ الذكاء الاصطناعي كان أكثر ميلاً بنسبة 58% إلى 98% لاتباع تعليمات مشكوك فيها مقارنة بالبشر الذين لا تتجاوز نسبتهم 40%.
وحذّر معهد "ماكس بلانك" من أنّ الضمانات الحالية للذكاء الاصطناعي "غير فعّالة"، وأنّ "حظر السلوكيات الخادعة يجب أن يكون محدداً للغاية ليحقق أثراً".
كذلك أكّدت أبحاث سابقة في شركة "Open AI" المطورة لنموذج الذكاء الاصطناعي (تشات جي بي تي) "صعوبة منع الذكاء الاصطناعي من التلفيق أو التهويل"، وأنّ "خداع الأنظمة — الادعاء بتنفيذ مهمة لم تُنجز فعلياً — يبقى تحدياً مستمراً للمهندسين".
People are more likely to cheat and lie when they delegate tasks to AI.
— Keith Sakata, MD (@KeithSakata) September 23, 2025
A new 2025 Nature paper shows:
• Humans stay honest when reporting directly
• With AI, vague prompts (“maximize profit”) drive cheating
• AI executes without guilt → lets us offload blame pic.twitter.com/RQBN9V4SrX