التضليل الرقمي يرافق الحرب على إيران
منذ بدء العدوان الأميركي الإسرائيلي على إيران في 28 فبراير/شباط الماضي، لم تقتصر المواجهة على الضربات العسكرية، بل امتدت بسرعة إلى الفضاء الرقمي، حيث اجتاحت منصات التواصل الاجتماعي موجة واسعة من الصور والفيديوهات المضللة. وبين مقاطع من ألعاب فيديو قُدمت على أنها ضربات صاروخية، وصور أقمار اصطناعية معدّلة بالذكاء الاصطناعي، ومشاهد قتال مولَّدة رقمياً، تتشكل ملامح ما يصفه الباحثون بـحرب السرديات، في محاولة للتأثير في الرأي العام وإرباك المتابعين حول حقيقة ما يجري على الأرض.
الذكاء الاصطناعي والحرب على إيران
ومن أبرز الأمثلة على هذا التضليل ما كشفته صحيفة فاينانشال تايمز عن انتشار صور أقمار اصطناعية مولَّدة أو معدَّلة بالذكاء الاصطناعي، بهدف ترويج أخبار كاذبة مرتبطة بالحرب، إذ تداول مستخدمون على منصة إكس صورة زعمت صحيفة طهران تايمز الإيرانية أنها تُظهر أضراراً لحقت برادار أميركي في قطر بعد هجوم بطائرة مسيّرة إيرانية، لكن تحليل الصحيفة البريطانية أظهر أن الصورة في الواقع معدّلة بالذكاء الاصطناعي لموقع مختلف في البحرين. وأظهرت الصورة علامات واضحة على التلاعب، إذ ظهرت السيارات في المكان نفسه رغم وجود فارق زمني يتجاوز عاماً بين الصور، كما أن زاوية الظلال بدت مطابقة تماماً لصور قديمة للموقع. كما تداول المستخدمون صورة أخرى تُظهر احتراق سفينة حربية أميركية، لكن التحقيقات أظهرت أنها أيضاً صورة مولَّدة بالذكاء الاصطناعي، مع إضافة علامة لشركة ميزار فيجن (MizarVision) الصينية المتخصصة في صور الأقمار الاصطناعية، رغم أن الشركة لم تنشر هذه الصورة في حساباتها الرسمية.
ويمثل انتشار صور الأقمار الاصطناعية المزيفة تحدياً خاصاً مقارنة بالصور العادية، فبينما يمكن اكتشاف التلاعب في صور الأشخاص عبر مؤشرات بيومترية، مثل رمش غير طبيعي، أو تشوه في ملامح الوجه، فإن صور الأقمار الاصطناعية تُظهر طرقاً ومباني وتضاريس مجردة، ما يجعل التلاعب فيها أقل وضوحاً للمستخدمين غير المتخصصين. كما يميل المتابعون إلى الوثوق بصور الأقمار الاصطناعية باعتبارها أدوات توثيق دقيقة تعتمد على تقنيات معقدة، لكن مع تطور أدوات الذكاء الاصطناعي، أصبح بإمكان أي شخص يمتلك هذه الأدوات إنتاج صور
ارسال الخبر الى: