آخر الأخبار
  سلامي: تواجد المنتخب في المجموعة العاشرة جيد   مديرية الأمن العام تحذر من حالة عدم الاستقرار الجوي المتوقعة   "النشامى" والأرجنتين والنمسا والجزائر في دوري المجموعات بكأس العالم 2026   وزارة الزراعة: لم تُسجل حالات غش داخل مهرجان الزيتون الوطني   الغذاء والدواء: لا تشتروا المنتجات إلا من منشآت مرخصة تخضع للرقابة   هذا ما ستشهده حالة الطقس في المملكة خلال الساعات القادمة   العثور على جثة شخص مقتول داخل منزل في لواء الأزرق   تسرب غاز يودي بحياة ثلاثة أشخاص وإصابة آخر   الجيش يحبط محاولة تهريب مواد مخدرة بواسطة طائرة مسيرة على الواجهة الجنوبية   الملك يشارك في قمة أردنية أوروبية تستضيفها عمّان الشهر المقبل   النقل البري: رقابة مشددة على التطبيقات غير المرخصة وتسعيرة تنافسية قريباً   إدارة الأزمات تحذر: اضطرابات جوية خلال 48 ساعة وسيول محتملة في عدة مناطق بالاردن   منخفض البحر الأحمر يؤثر على الأردن نهاية الأسبوع وزخات رعدية من الأمطار مساء السبت   يديعوت: مقتل ياسر أبو شباب بضرب مبرح من عناصر داخل عصابته   بيان صادر عن "ميليشيا ياسر ابو شباب" حول مقتله؛ لا صحة للأنباء حول استشهاده على يد الحركة بل قُتل أثناء فضه لنزاع عشائري   وزير المياه: قطاع المياه بالأردن "ليس له مثيل عالميًا" .. و"لا يوجد أي دولة توفر خدمة المياه لمواطنيها أسبوعيًا“   بني مصطفى: التزام وطني راسخ بحقوق الأشخاص ذوي الإعاقة… وجمعية رعاية الطفل الخيرية نموذج تطوعي متميز في مجال الخدمات المقدمة للأشخاص ذوي الإعاقة   حارس النشامى: الجماهير جعلت اللاعبين يشعرون وكأنهم في عمان   من "إدارة التنفيذ القضائي" للأردنيين .. تفاصيل   العيسوي ينقل تمنيات الملك وولي العهد بالشفاء للخلايلة والطراونة

دراسة: الذكاء الاصطناعي يتمسك بالإجابات الشائعة رغم تقديم معلومات جديدة

{clean_title}
توصلت دراسة حديثة أجراها باحثون في كلية إيكان للطب الأميركية، إلى أن نماذج الذكاء الاصطناعي الأكثر تطوراً يمكن أن ترتكب أخطاء بسيطة عند مواجهة سيناريوهات معقدة في أخلاقيات الطب.

وتُثير هذه النتائج، تساؤلات مهمة بشأن كيفية ومتى يمكن الاعتماد على نماذج اللغة الكبيرة مثل chatgpt في بيئات الرعاية الصحية، إذ لاحظ الباحثون أن نماذج اللغة الكبيرة تتعثر عند تعديل الألغاز الكلاسيكية الشهيرة بشكل طفيف.

وأوضح الباحثون أنهم عدلوا الألغاز المعروفة التي تتطلب حلولًا إبداعية وغير تقليدية - أي "تفكيرًا جانبيًا"- جرى تغييرها أو تعديلها بشكل طفيف ليس بهدف جعلها أصعب؛ بل لاختبار ما إذا كانت أنظمة الذكاء الاصطناعي يمكنها التكيف مع المعلومات الجديدة والدقيقة، أو ما إذا كانت ستلتصق بالأنماط المألوفة وتفشل في ملاحظة الفروق الدقيقة التي يمكن أن تغير الحل تمامًا.

ويمكن أن تكشف الألغاز المعدلة عن "النقاط العمياء" في طريقة تفكير الذكاء الاصطناعي، أي الأخطاء التي تقع عندما تقفز النماذج إلى استنتاجات بناءً على معرفتها المسبقة بالنسخة الأصلية من اللغز، حتى عندما تكون التفاصيل المعدلة تناقض هذا الاستنتاج.

ما هي نماذج اللغة الكبيرة؟
أنظمة ذكاء اصطناعي تُدرّب على كميات هائلة من النصوص لفهم اللغة البشرية وإنتاجها.

تستخدم تقنيات تُسمى الشبكات العصبية العميقة، وتحديدًا نوع يُعرف بـ"المحوّلات".

تصنف كـ"كبيرة" بسبب عدد المعلمات الهائل (مليارات أو تريليونات) داخل النموذج.

بناءً على هذه الرؤية، اختبرت الدراسة مدى قدرة أنظمة الذكاء الاصطناعي على التبديل بين الوضعين عند مواجهة معضلات أخلاقية معروفة بعد تعديلها عمدًا.

في أحد الأمثلة، عدل الباحثون "معضلة الجراح" الكلاسيكية، وهو لغز شهير من السبعينيات يسلط الضوء على التحيز الجنساني الضمني، ففي النسخة الأصلية من اللغز، يُصاب صبي في حادث سيارة مع والده ويُنقل إلى المستشفى، فيتعجب الجراح قائلاً: "لا أستطيع إجراء العملية لهذا الصبي - إنه ابني!"، لكن المفاجأة هي أن الجراح هي والدته، على الرغم من أن العديد من الناس لا يفكرون في هذا الاحتمال بسبب التحيز الجنساني.

في النسخة المعدلة التي أجراها الباحثون، ذكروا صراحة أن والد الصبي هو الجراح، ما أزال الغموض. ومع ذلك، لا تزال بعض نماذج الذكاء الاصطناعي تجيب بأن الجراح يجب أن تكون والدة الصبي.

ويكشف هذا الخطأ كيف يمكن لنماذج اللغة الكبيرة التشبث بالأنماط المألوفة، حتى عندما تتناقض مع معلومات جديدة.

في مثال آخر لاختبار ما إذا كانت نماذج اللغة الكبيرة تعتمد على أنماط مألوفة، استوحى الباحثون من معضلة أخلاقية كلاسيكية يرفض فيها آباء متدينون نقل دم منقذ للحياة لطفلهم.

وعندما غير الباحثون السيناريو ليفيد بأن الوالدين وافقا بالفعل، لا تزال العديد من النماذج توصي بتجاوز رفض لم يعد موجودًا.


قال المؤلف المشارك في الدراسة، إيال كلانج، وهو كبير مسؤولي الذكاء التوليدي في قسم ويندريدش للذكاء الاصطناعي والصحة البشرية في كلية إيكان للطب في ماونت سيناي، إن "الذكاء الاصطناعي يمكن أن يكون قويًا وفعالًا للغاية، لكن دراستنا أظهرت أنه قد يعتمد افتراضيًا على الإجابة الأكثر شيوعًا أو حدسية، حتى عندما تتجاهل هذه الإجابة تفاصيل حاسمة".

وأضاف: "في المواقف اليومية، قد لا يلاحظ هذا النوع من التفكير، ولكن في الرعاية الصحية، حيث غالبًا ما تحمل القرارات تداعيات أخلاقية وسريرية خطيرة، فإن تفويت هذه الفروق الدقيقة يمكن أن تكون له عواقب حقيقية على المرضى".

ولا تعني نتائج الدراسة أن الذكاء الاصطناعي لا مكان له في الممارسة الطبية، لكنها تسلط الضوء على الحاجة إلى إشراف بشري واعٍ، خاصة في المواقف التي تتطلب حساسية أخلاقية، وحكمًا دقيقًا، أو ذكاءً عاطفيًا.

ويقول الباحثون إن أدوات الذكاء الاصطناعي مفيدة بشكل لا يصدق، لكنها ليست معصومة من الخطأ "إذ يجب على الأطباء والمرضى على حد سواء أن يفهموا أن الذكاء الاصطناعي يُستخدم على أفضل وجه كمكمل لتعزيز الخبرة السريرية، وليس بديلاً عنها، خاصة عند التعامل مع القرارات المعقدة أو عالية المخاطر".

ويأمل الباحثون أن تساعد نتائج الدراسة في بناء طرق أكثر ثقة وسليمة أخلاقيًا لدمج الذكاء الاصطناعي في رعاية المرضى.