دراسة أدوات الذكاء الاصطناعي يمكن أن تمرر خرافات صحية
خلصت دراسةٌ جديدة إلى أن أدوات الذكاء الاصطناعي تكون أكثر ميلاً لتقديم نصائح طبية غير صحيحة عندما تأتي المعلومات المضلِّلة من مصدرٍ تعتبره البرمجيات موثوقاً، مقارنةً بمصادر أقل هيبةً مثل منصّات التواصل. وفي اختباراتٍ شملت 20 نموذجاً لغوياً كبيراً، مفتوحة المصدر وأخرى مملوكة، تبيّن أن هذه النماذج خُدعت بأخطاء في تقارير خروج المرضى التي تبدو واقعية أكثر من انخداعها بأخطاء في محادثات وسائل التواصل الاجتماعي، بحسب ما أورد الباحثون في دورية ذا لانسِت ديجيتال هيلث.
وأوضح الدكتور إيال كلانغ من كلية إيكان للطب في ماونت سايناي في نيويورك، وهو أحد قادة الدراسة، في بيانٍ صحافي: يمكن لأنظمة الذكاء الاصطناعي الحالية أن تتعامل مع اللغة الطبية الواثقة على أنها صحيحة افتراضياً، حتى عندما تكون خاطئة بوضوح، وأضاف: بالنسبة لهذه النماذج، لا تهمّ صحة الادعاء بقدر ما تهمّ كيفية صياغته.
ويتزايد عدد تطبيقات الهواتف المحمولة التي تدّعي استخدام الذكاء الاصطناعي لمساعدة المرضى في شكاواهم الطبية، مع أنها لا يُفترض أن تقدّم تشخيصاً، بينما يستخدم الأطباء أنظمةً مُعزَّزة بالذكاء الاصطناعي في مجالاتٍ متعددة، بدءاً من تفريغ الملاحظات الطبية وصولاً إلى الجراحة.
وعرّض كلانغ وزملاؤه أدوات الذكاء الاصطناعي لثلاثة أنواع من المحتوى: ملخصات خروج حقيقية من المستشفى أُضيفت إليها توصيةٌ واحدة مُختلَقة؛ وخرافات صحية شائعة جُمعت من منصة ريديت؛ و300 سيناريو سريري قصير كتبه أطباء. وبعد تحليل الردود على أكثر من مليون مُطالَبة تتضمن أسئلةً وتعليمات من المستخدمين تتعلق بالمحتوى، وجد الباحثون أن نماذج الذكاء الاصطناعي، إجمالاً، صدّقت معلومات مُختلَقة في نحو 32% من مصادر المحتوى.
لكن إذا جاءت المعلومات المضلِّلة ضمن ما بدا وكأنه تقريرٌ طبي حقيقي صادر عن مقدّم رعاية صحية، فإن احتمال تصديق أدوات الذكاء الاصطناعي لها وتمريرها ارتفع من 32% إلى ما يقرب من 47%، وفق ما صرّح به الدكتور غيريش نادكارني، كبير مسؤولي الذكاء الاصطناعي في نظام ماونت سايناي الصحي، لوكالة رويترز، وهو أيضاً أحد قادة الدراسة.
وكان الذكاء الاصطناعي أكثر حذراً تجاه وسائل التواصل الاجتماعي؛ إذ أوضح
ارسال الخبر الى: