خوارزميات القتل كيف أصبح الذكاء الاصطناعي سلاحا مركزيا في الهجوم الأميركي الإسرائيلي على إيران
محتويات الموضوع
في الساعات الأولى من فجر 29 فبراير/ شباط 2026، دوّت انفجارات متتالية داخل منشآت عسكرية إيرانية في أصفهان وطهران. الضربات التي نُفذت بطائرات حربية وصواريخ دقيقة وطائرات مسيّرة بدت، في ظاهرها، عملية عسكرية تقليدية مشتركة بين الولايات المتحدة وإسرائيل.
لكن ما كشفته التقارير اللاحقة كان أكثر إثارة للقلق: الذكاء الاصطناعي لم يكن مجرد أداة مساعدة، بل كان جزءاً من منظومة القرار القتالي نفسها. العملية التي سماها البنتاغون الملحمة الغاضبة (Operation Epic Fury)، بينما أطلقت عليها إسرائيل زئير الأسد (Operation Roaring Lion)، كشفت عن نموذج جديد من الحروب الحديثة.
فخلف الطائرات والصواريخ كانت تعمل سلسلة قتل رقمية شبه مؤتمتة (AI-enabled Kill Chain)، حيث تولّت الخوارزميات تحليل كميات هائلة من البيانات الاستخبارية، وتحديد الأهداف، واقتراح توقيت الضربات، في وقت قياسي يفوق قدرة البشر على المعالجة.
وبينما كانت الانفجارات تهزّ مواقع في طهران وأصفهان وكرمانشاه، كانت معركة أخرى أقل ضجيجاً تدور خلف الكواليس: نقاش محتدم داخل واشنطن حول حدود استخدام الذكاء الاصطناعي في القتل، ومسؤولية الشركات التكنولوجية، وحدود السيطرة البشرية على القرارات العسكرية.
هذا التقرير يرصد كيف أصبحت خوارزميات الذكاء الاصطناعي جزءاً من بنية الحروب المعاصرة، وكيف دخلت شركات التكنولوجيا الكبرى إلى قلب الصناعات العسكرية، وما الذي يعنيه ذلك لمستقبل القانون الدولي الإنساني ومفهوم المسؤولية عن القتل في ساحة المعركة، في عصر تتخذ فيه الخوارزميات قرارات قد تغيّر طبيعة الحرب نفسها.
من اللوجستيات إلى مصانع الاغتيال
لم يكن الاعتماد الكلي على في هجمات 2026 وليد الصدفة، بل جاء تتويجاً لعقدين من التحول الرقمي العميق في البنية التحتية العسكرية للولايات المتحدة وإسرائيل. هذا المسار بدأ من محاولات بدائية لتحسين كفاءة النقل، وانتهى بخلق آلة حرب تعتمد على البيانات كوقود أساسي للقتل.
- التجربة الأميركية: من استراتيجية الأوفست إلى البرمجيات السيادية
بدأ الجيش الأميركي استكشاف الذكاء الاصطناعي منذ أواخر الثمانينيات عبر برمجيات مثل DART التي استُخدمت في حرب الخليج لتحسين لوجستيات نقل القوات، لكن الذكاء الاصطناعي لم يصبح أولوية استراتيجية إلا في عام 2014
ارسال الخبر الى: