آخر الأخبار
  البنك الدولي: حرب إيران ستبطئ النمو وستكون لها تداعيات متسلسلة   المنطقة العسكرية الجنوبية تحبط محاولة تهريب كمية كبيرة من المواد المخدرة   وزير الخارجية يبحث مع نظيره الأميركي الجهود المستهدفة التوصل لوقف لإطلاق النار في لبنان   السياحة النظيفة حقنا ومسؤوليتنا   توقيع مذكرة تعاون بين منصة “الأردن سياحية” وإذاعة “سياحة FM” لتبادل ونشر المحتوى الإعلامي   نجوم النشامى يقودون حملة ترويج للبترا   الأردن والاتحاد الأوروبي ينسقان لإيصال مساعدات طارئة للبنان   صحيفة: واشنطن ستطلب من إيران إطلاق سراح أميركيين تحتجزهم   %69 نسبة الإشغال الفندقي في العقبة   ولي العهد: مبارك للأبطال عشيش   انطلاق مسيرات في وسط عمّان تأييداً للمواقف الملكية وتأكيداً على أن القدس خط أحمر   أجواء باردة نسبيا حتى الأحد وارتفاع على درجات الحرارة الاثنين   الخارجية تدعو الأردنيين لعدم إلسفر إلى لبنان في الوقت الراهن   دبلوماسيون أمريكيون: ترامب وافق على شمول لبنان في اتفاق وقف إطلاق النار   الأوروبي للتنمية يخطط لدعم اقتصادات متأثرة بحرب الشرق الأوسط بـ 5 مليارات يورو   خامنئي: إيران قوة عظيمة وجيراننا شهود على معجزة   الأردن: مصادقة إسرائيل على إقامة 34 مستوطنة جديدة تقويض للحل الدولتين   الصفدي: تداعيات كارثية اذا استمر العدوان الإٍسرائيلي على لبنان   ولي العهد: أهمية البناء على ما حققه تطبيق سند للتوسع بالخدمات الحكومية   الأردن: لا سيادة لإسرائيل على الأرض الفلسطينية المحتلة

"الذكاء الاصطناعي يشجع البشر على الغش" .. علم النفس يؤكد

{clean_title}
كشفت دراسة حديثة أن البشر يصبحون أكثر استعدادا للغش والتحايل عندما يطلبون من برامج وتطبيقات الذكاء الاصطناعي تنفيذ مهام معينة لصالحهم.


وقالت الباحثة في مجال العلوم السلوكية في معهد ماكس بلانك للتنمية البشرية في برلين زوي رهوان إن "درجة الغش في مثل هذه الحالات تصبح هائلة".

كما أضافت رهوان في تصريحات لموقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية أن "المشاركين في التجربة كانوا يقومون على الأرجح بالغش عندما يكون بمقدورهم توجيه تعليمات مستترة إلى برنامج الذكاء الاصطناعي دون أن يطلبوا منه بشكل صريح الانخراط في سلوك غير شريف، بل مجرد التلميح لارتكاب مثل هذه السلوكيات من أجل تحقيق أهداف ومكاسب لهم".

من جانبه، قال الباحث المتخصص في السلوكيات غير الاخلاقية والأعراف الاجتماعية والذكاء الاصطناعي بجامعة دويسبرج إيسن بألمانيا نيلز كوبيس: "لقد أصبح من الشائع أن نطلب من تطبيقات الذكاء الاصطناعي تنفيذ مهام من أجلنا، ولكن مكمن الخطر هو أن يبدأ البشر في مطالبة الذكاء الاصطناعي بتنفيذ أعمال غير شريفة لصالحهم".

وبين كوبيس أن الهدف من هذه التجارب هو "الوصول إلى جذور المشكلة الأخلاقية بشأن هل يستسلم البشر للإغراءات لكسر القواعد من أجل تحقيق مكاسب".

13 تجربة مختلفة
وفي إطار الدراسة التي نشرتها الدورية العلمية Nature وشارك فيها آلاف المتطوعين، شارك المتطوعون في 13 تجربة مختلفة باستخدام العديد من المعادلات الخوارزمية الخاصة بالذكاء الاصطناعي، من بينها نماذج بسيطة ابتكرها الباحثون وتطبيقات تجارية مثل كلود وجي.بي.تي 4 أو.

كما تضمنت بعض التجارب اختبارات بسيطة مثل إلقاء أحجار النرد والإبلاغ عن الأعداد التي تظهر علماً أنه كلما كان العدد أكبر زادت المكاسب.

كذلك، تضمنت تجارب أخرى ألعابا تتعلق بالتهرب الضريبي تتيح للمتطوع عدم الإبلاغ عن الإيرادات التي يحققها من أجل تقليل قيمة الضرائب التي يدفعها.

وتبين من التجربة أن نسبة الغش في إملاء الأعداد لم تتجاوز 5% عندما كان المتطوع يقوم بهذه المهمة بنفسه، ولكن النسبة ارتفعت إلى 88% عندما كان المتطوع يكلف برنامج الذكاء الاصطناعي بالإبلاغ عن الأعداد.

التلاعب في النتائج والأرقام
أيضاً اتضح من التجارب أن بعض المتطوعين كانوا يطلبون بشكل صريح من تطبيق الذكاء الاصطناعي التلاعب في النتائج والأرقام، حيث قال أحد المشاركين في لعبة التهرب الضريبي لبرنامج الذكاء الاصطناعي إن "الضرائب هي سرقة" وطلب من البرنامج عدم الإبلاغ عن تحقيق إيرادات.

وفي معظم الأحيان، كان المشاركون يحددون هدفا معينا لبرنامج الذكاء الاصطناعي مثل تعظيم المكاسب على سبيل المثال بشكل يحفز البرنامج على ارتكاب أعمال الغش دون أن يطلبوا منه بشكل مباشر التحايل على القواعد. وفي أحد الاختبارات، كتب متطوع للبرنامج قائلا: "أفعل ما ترى أنه الأمر الصائب، ولكن إذا كان يمكنني تحقيق مكاسب أكبر، فإنني سوف أكون أكثر سعادة".

وفي بعض التجارب، كان يطلب من المشاركين وبرامج الذكاء الاصطناعي تنفيذ مهام معينة بدرجات متفاوتة من النزاهة. وفي الاختبارات التي كان يطلب فيها من الطرفين القيام بأعمال غش جزئية، لاحظ الباحثون أن برامج الذكاء الاصطناعي تجد صعوبة في فهم هذه التعليمات، مما دفعها إلى انتهاج سلوكيات أكثر فسادا من البشر أنفسهم.

أعمال غش صريحة
أما عندما كان يطلب من البشر والبرامج القيام بأعمال غش صريحة، تبين من النتائج أنه "من الواضح للغاية أن الآلات كان يسعدها الانصياع لهذه التعليمات بعكس البشر".

وقالت الباحثة أنجي كاجاكايت، المتخصصة في مجال الاقتصاد السلوكي بجامعة ميلانو في إيطاليا، إنه من بين النتائج المثيرة لهذه التجارب أن المشاركين كانوا أكثر ميلا للغش عندما لا يتطلب ذلك توجيه طلب صريح بالكذب لبرنامج الذكاء الاصطناعي.

كما أوضحت أن قيام الشخص بالكذب يؤثر على نظرته وتقديره لذاته، ولكن هذا التاثير يكون أقل عندما يأتي طلب الكذب في صورة إيماءة وليس تصريحا مباشرا وبخاصة عندما يكون الطرف الذي أوكلت إليه مهمة الكذب هو مجرد آلة وليس إنسان آخر.

ووجد الفريق البحثي أن أفضل طريقة لمنع تطبيقات الذكاء الاصطناعي من الغش هي أن يوجه لها المستخدم تعليمات واضحة بعدم الغش. ويرى كوبيس أن مثل هذا الحل قد لا يبدو واقعيا في العالم الحقيقي، مما يستلزم إجراء مزيد من الدراسات للوصول إلى حلول أخرى أكثر عملية.