الذكاء الاصطناعي يكذب الحقيقة في الحرب
عندما انتشرت صورة مقبرة ضحايا استهداف مدرسة الشجرة الطيبة الابتدائية للبنات في ميناب جنوبي إيران، والتي أسفرت عن مقتل 175 شخصاً معظمهم من الأطفال، سارعت أنظمة الذكاء الاصطناعي إلى نفي صحتها وتصنيفها محتوى مفبركاً. في المقابل، قد يجد القارئ في الصحافة التقليدية نفسه أمام صورة مولّدة أو معدّلة بالذكاء الاصطناعي، نجحت في خداع غرف التحرير وتسلّلت إلى النشر بوصفها مادة موثوقة، ما يكشف تعقيد المشهد بين ما هو حقيقي وما هو مصطنع.
في أعقاب المجزرة، التي ارتكبت أول أمام الحرب يوم 28 فبراير/ شباط الماضي، التُقطت صورة جوية تُظهر صفوفاً من القبور المحفورة حديثاً، تجمّع حولها عدد قليل من الأشخاص، إلى جانب مستطيلات مرسومة بالطباشير، فيما كانت الجرّافات تستعد لحفر المزيد. هذه القبور كانت معدّة لدفن ضحايا المجزرة التي خلص تحقيق إلى أنها نتيجة قصف أميركي. غير أن المفارقة ظهرت عند عرض الصورة على أدوات الذكاء الاصطناعي التي صنّفتها على أنها مضللة.
إذ ادّعى روبوت جيميناي التابع لشركة غوغل أن الصورة قديمة وتعود إلى زلزال في تركيا قبل عامين، وليس لها علاقة بالعدوان الجاري على إيران. وبالمثل، اعتبر روبوت غروك التابع لمنصة إكس أن الصورة ليست من إيران أساساً، بل من إندونيسيا، وربطها بعمليات دفن جماعي لضحايا جائحة كوفيد-19.
لكن الصورة أصلية وحقيقية، ونشرت عبر وكالات دولية مثل وكالة فرانس برس وغيتي، وأفادت صحيفة ذا غارديان البريطانية بصحتها من خلال مقارنتها بصور الأقمار الصناعية.
/> موسيقى التحديثات الحيةغناء الذكاء الاصطناعي على طبول الحرب
الذكاء الاصطناعي يخدع الصحافيين
لا تقف خطورة هذه الظاهرة عند حدود تضليل الجمهور، بل تمتد إلى غرف الأخبار نفسها. فهذه الواقعة ليست سوى مثال على تورّط الذكاء الاصطناعي في إنتاج محتوى مضلل يهدد دقة العمل الصحافي وحق الجمهور في المعرفة.
في أوائل مارس/ آذار الحالي، أفادت وسائل إعلام هولندية بأن وكالة الأنباء الوطنية، وهي الأكبر في البلاد، حذفت ما يقارب ألف صورة مرتبطة بإيران من قواعد بياناتها، بعد الاشتباه في التلاعب ببعضها باستخدام الذكاء الاصطناعي. وبعد
ارسال الخبر الى: