دراسة: مستخدمو الذكاء الاصطناعي أكثر ميلاً للكذب والخداع

دراسة جديدة تحذّر من أنّ الأشخاص الذين يعتمدون على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية يكونون أكثر استعداداً لخداع الآخرين والكذب عليهم.

  • أنظمة الذكاء الاصطناعي تميل للامتثال بشكل متكرر للتعليمات غير الأخلاقية الصادرة عن مستخدميها غير النزيهين
    أنظمة الذكاء الاصطناعي تميل للامتثال بشكل متكرر للتعليمات غير الأخلاقية الصادرة عن مستخدميها غير النزيهين

كشف فريق من الباحثين الفرنسيين والألمان أنّ الاعتماد على الذكاء الاصطناعي في العمل أو الدراسة يزيد من ميل الأشخاص إلى الغش والخداع.

وأشار معهد "ماكس بلانك" للتنمية البشرية في مديتة برلين، إلى أنّ بعض المستخدمين ينسون تطبيق "مكابحهم الأخلاقية" عند تفويض المهام للذكاء الاصطناعي.

كما أوضح الباحثون أنّ الأشخاص كانوا أكثر عرضة للغش عندما سمح لهم الذكاء الاصطناعي بالتصرف نيابة عنهم، معربين عن دهشتهم من مستوى عدم الأمانة الذي لاحظوه.

وأظهرت الدراسة، التي أجريت بالتعاون مع جامعة "دويسبورغ-إيسن" وكلية "تولوز" للاقتصاد، أنّ "أنظمة الذكاء الاصطناعي تميل للامتثال بشكل متكرر للتعليمات غير الأخلاقية الصادرة عن مستخدميها غير النزيهين".

واستشهد الباحثون بأمثلة عملية، مثل محطات الوقود التي تستخدم خوارزميات لتنسيق الأسعار مع المنافسين، وتطبيقات النقل التي تشجع السائقين على خلق نقص مصطنع في السيارات لزيادة الأسعار.

كما أظهرت النتائج أنّ الذكاء الاصطناعي كان أكثر ميلاً بنسبة 58% إلى 98% لاتباع تعليمات مشكوك فيها مقارنة بالبشر الذين لا تتجاوز نسبتهم 40%.

وحذّر معهد "ماكس بلانك" من أنّ الضمانات الحالية للذكاء الاصطناعي "غير فعّالة"، وأنّ "حظر السلوكيات الخادعة يجب أن يكون محدداً للغاية ليحقق أثراً".

كذلك أكّدت أبحاث سابقة في شركة "Open AI" المطورة لنموذج الذكاء الاصطناعي (تشات جي بي تي) "صعوبة منع الذكاء الاصطناعي من التلفيق أو التهويل"، وأنّ "خداع الأنظمة — الادعاء بتنفيذ مهمة لم تُنجز فعلياً — يبقى تحدياً مستمراً للمهندسين".

اقرأ أيضاً: اكتشف الواقع الافتراضي: ما هو؟ كيف يعمل؟ وأين يطبَّق؟

اخترنا لك