آخر الأخبار
  رقم قياسي .. 7 آلاف زائر لتلفريك عجلون الخميس   إصابة 6 أشخاص بحادث تصادم على شارع البترا   عمان الأهلية تهنئ بعيد العمال العالمي   وفاة عقيد جمارك متأثراً بإصابته بحادث العقبة وارتفاع عدد الوفيات إلى اثنتين   ولي العهد :بناة الوطن يعطيكم العافية   الخط الحديدي الحجازي يعيد تشغيل رحلاته إلى الجيزة   انخفاض طفيف على الحرارة مع بقاء الأجواء معتدلة الجمعة   تقرير أرجنتيني: فلسفلة سلامي انعكست على تنظيم وانضباط منتخب الأردن   العمل: طورنا منظومة التفتيش والصحة المهنية   برنامج أممي: سحاب تعاني من عدم توازن في توزيع المساحات العامة   أمانة عمّان: إغلاق نفق صويلح جزئياً مساء الخميس لإعادة تأهيل إنارته   تنظيم النقل: رفع أجور النقل العام بين 5 - 10 قروش   بمناسبة يومهم العالمي .. العامل الأردني أساس الإنتاج والبناء والإنجاز   وزير الزراعة يهنئ عمال القطاع بعيد العمال   وزارة العمل تتأهل للمراحل النهائية لجوائز القمة العالمية لمجتمع المعلومات 2026   وزير الاتصال الحكومي يهنئ عمال الأردن بعيدهم   البنك المركزي: تراجع الدولرة إلى 18.1% بنهاية شباط 2026   خبير: انخفاض معدل البطالة لا يعكس تحسنًا في سوق العمل   العقود الآجلة لخام برنت ترتفع لأعلى مستوى في 4 سنوات   ارتفاع احتياطيات البنك المركزي من العملات الأجنبية إلى 26.8 مليار دولار

"الذكاء الاصطناعي يشجع البشر على الغش" .. علم النفس يؤكد

{clean_title}
كشفت دراسة حديثة أن البشر يصبحون أكثر استعدادا للغش والتحايل عندما يطلبون من برامج وتطبيقات الذكاء الاصطناعي تنفيذ مهام معينة لصالحهم.


وقالت الباحثة في مجال العلوم السلوكية في معهد ماكس بلانك للتنمية البشرية في برلين زوي رهوان إن "درجة الغش في مثل هذه الحالات تصبح هائلة".

كما أضافت رهوان في تصريحات لموقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية أن "المشاركين في التجربة كانوا يقومون على الأرجح بالغش عندما يكون بمقدورهم توجيه تعليمات مستترة إلى برنامج الذكاء الاصطناعي دون أن يطلبوا منه بشكل صريح الانخراط في سلوك غير شريف، بل مجرد التلميح لارتكاب مثل هذه السلوكيات من أجل تحقيق أهداف ومكاسب لهم".

من جانبه، قال الباحث المتخصص في السلوكيات غير الاخلاقية والأعراف الاجتماعية والذكاء الاصطناعي بجامعة دويسبرج إيسن بألمانيا نيلز كوبيس: "لقد أصبح من الشائع أن نطلب من تطبيقات الذكاء الاصطناعي تنفيذ مهام من أجلنا، ولكن مكمن الخطر هو أن يبدأ البشر في مطالبة الذكاء الاصطناعي بتنفيذ أعمال غير شريفة لصالحهم".

وبين كوبيس أن الهدف من هذه التجارب هو "الوصول إلى جذور المشكلة الأخلاقية بشأن هل يستسلم البشر للإغراءات لكسر القواعد من أجل تحقيق مكاسب".

13 تجربة مختلفة
وفي إطار الدراسة التي نشرتها الدورية العلمية Nature وشارك فيها آلاف المتطوعين، شارك المتطوعون في 13 تجربة مختلفة باستخدام العديد من المعادلات الخوارزمية الخاصة بالذكاء الاصطناعي، من بينها نماذج بسيطة ابتكرها الباحثون وتطبيقات تجارية مثل كلود وجي.بي.تي 4 أو.

كما تضمنت بعض التجارب اختبارات بسيطة مثل إلقاء أحجار النرد والإبلاغ عن الأعداد التي تظهر علماً أنه كلما كان العدد أكبر زادت المكاسب.

كذلك، تضمنت تجارب أخرى ألعابا تتعلق بالتهرب الضريبي تتيح للمتطوع عدم الإبلاغ عن الإيرادات التي يحققها من أجل تقليل قيمة الضرائب التي يدفعها.

وتبين من التجربة أن نسبة الغش في إملاء الأعداد لم تتجاوز 5% عندما كان المتطوع يقوم بهذه المهمة بنفسه، ولكن النسبة ارتفعت إلى 88% عندما كان المتطوع يكلف برنامج الذكاء الاصطناعي بالإبلاغ عن الأعداد.

التلاعب في النتائج والأرقام
أيضاً اتضح من التجارب أن بعض المتطوعين كانوا يطلبون بشكل صريح من تطبيق الذكاء الاصطناعي التلاعب في النتائج والأرقام، حيث قال أحد المشاركين في لعبة التهرب الضريبي لبرنامج الذكاء الاصطناعي إن "الضرائب هي سرقة" وطلب من البرنامج عدم الإبلاغ عن تحقيق إيرادات.

وفي معظم الأحيان، كان المشاركون يحددون هدفا معينا لبرنامج الذكاء الاصطناعي مثل تعظيم المكاسب على سبيل المثال بشكل يحفز البرنامج على ارتكاب أعمال الغش دون أن يطلبوا منه بشكل مباشر التحايل على القواعد. وفي أحد الاختبارات، كتب متطوع للبرنامج قائلا: "أفعل ما ترى أنه الأمر الصائب، ولكن إذا كان يمكنني تحقيق مكاسب أكبر، فإنني سوف أكون أكثر سعادة".

وفي بعض التجارب، كان يطلب من المشاركين وبرامج الذكاء الاصطناعي تنفيذ مهام معينة بدرجات متفاوتة من النزاهة. وفي الاختبارات التي كان يطلب فيها من الطرفين القيام بأعمال غش جزئية، لاحظ الباحثون أن برامج الذكاء الاصطناعي تجد صعوبة في فهم هذه التعليمات، مما دفعها إلى انتهاج سلوكيات أكثر فسادا من البشر أنفسهم.

أعمال غش صريحة
أما عندما كان يطلب من البشر والبرامج القيام بأعمال غش صريحة، تبين من النتائج أنه "من الواضح للغاية أن الآلات كان يسعدها الانصياع لهذه التعليمات بعكس البشر".

وقالت الباحثة أنجي كاجاكايت، المتخصصة في مجال الاقتصاد السلوكي بجامعة ميلانو في إيطاليا، إنه من بين النتائج المثيرة لهذه التجارب أن المشاركين كانوا أكثر ميلا للغش عندما لا يتطلب ذلك توجيه طلب صريح بالكذب لبرنامج الذكاء الاصطناعي.

كما أوضحت أن قيام الشخص بالكذب يؤثر على نظرته وتقديره لذاته، ولكن هذا التاثير يكون أقل عندما يأتي طلب الكذب في صورة إيماءة وليس تصريحا مباشرا وبخاصة عندما يكون الطرف الذي أوكلت إليه مهمة الكذب هو مجرد آلة وليس إنسان آخر.

ووجد الفريق البحثي أن أفضل طريقة لمنع تطبيقات الذكاء الاصطناعي من الغش هي أن يوجه لها المستخدم تعليمات واضحة بعدم الغش. ويرى كوبيس أن مثل هذا الحل قد لا يبدو واقعيا في العالم الحقيقي، مما يستلزم إجراء مزيد من الدراسات للوصول إلى حلول أخرى أكثر عملية.