في 28 فبراير 2026، أطلقت الولايات المتحدة وإسرائيل حملة عسكرية واسعة ضد إيران، استهدفت أكثر من 900 موقع خلال الساعات الاثنتي عشرة الأولى، وأسفرت عن مقتل المرشد الأعلى الإيراني آية الله علي خامنئي. ولا يزال الصراع مستمرًا، مع تواصل الضربات في مختلف أنحاء البلاد، وتزايد مؤشرات اختلال الاستقرار الإقليمي بوتيرة متسارعة. غير أن هذا التصعيد لا يقتصر على الأدوات القتالية التقليدية، بل يكشف، في موازاته، عن تحول نوعي في أنماط إدارة العمليات العسكرية، يتمثل في الدور المتنامي للخوارزميات والأنظمة المدعومة بالذكاء الاصطناعي في توجيه مسار الحرب وإعادة تشكيل معادلاتها العملياتية.
لقد تحوّل الذكاء الاصطناعي، وهو التكنولوجيا ذاتها التي يستخدمها ملايين الأفراد يوميًا في صياغة الرسائل الإلكترونية أو تلخيص الوثائق، إلى أداة محورية ضمن بنية القوة العسكرية الفتاكة. إذ جرى دمج نموذج "Claude" الذي تطوره شركة "Anthropic" في منظومة الاستهداف والتحليل الاستخباراتي التابعة للبنتاغون، حيث يعالج صور الأقمار الصناعية والاتصالات المعترضة والبيانات العملياتية، بما يدعم قرارات القادة العسكريين بشأن تحديد الأهداف ومواقعها وتوقيت تنفيذ الضربات.
ما كان يتطلب في السابق أيامًا من التحليل البشري بات يُنجز خلال ساعات أو حتى دقائق، بما يفرض وتيرة عملياتية لم يكن بوسع أي جيل سابق من المخططين العسكريين مجاراتها. ورغم حضور الذكاء الاصطناعي في ساحات القتال سابقًا، من خلال أنظمة توجيه الطائرات المسيّرة وتحليل صور الأقمار الصناعية، فإن الصراع مع إيران يمثل حتى الآن أوسع توظيف وأكثره تأثيرًا لهذه التكنولوجيا، في حين لا تزال التداعيات الكاملة لهذا المستوى من الانتشار قيد التشكّل.
لفهم ما يجري في عملية “الغضب الملحمي” (Operation Epic Fury)، يتعيّن إدراك الدور الفعلي الذي يؤديه الذكاء الاصطناعي داخل منظومة الاستهداف في الجيش الأمريكي. فقد بدأ البنتاجون التمهيد لهذه المرحلة منذ عام 2018 مع إطلاق مشروع “Maven”، وهو برنامج صُمّم لدمج تقنيات التعلم الآلي في منظومات الاستخبارات العسكرية وعمليات الاستهداف. وبحلول عام 2026، كان هذا البرنامج قد شهد تطورًا نوعيًا ملحوظًا.
من خلال شراكة مع شركة تحليل البيانات “Palantir”، يعمل نموذج “Claude” بوصفه محرك الاستدلال ضمن نظام لدعم القرار مدمج عبر مختلف القيادات القتالية الأمريكية. ويتيح هذا النظام للمخططين تنظيم سلاسل الاستهداف وتنسيق تحركات وإجراءات مئات الوحدات العسكرية خلال ساعات بدلًا من أيام. ففي أثناء غزو العراق عام 2003، تطلّبت مهام تحديد الأهداف وحدة استخباراتية قوامها نحو 2,000 فرد، بينما تُنجز في عملية “الغضب الملحمي” بواسطة 20 جنديًا فقط، بما يعكس تحولًا جذريًا في كثافة الموارد البشرية داخل المعادلة العملياتية.
في هذا الإطار، يُشار إلى هذا الاختزال الحاد في زمن التخطيط بمفهوم “ضغط القرار” (Decision Compression). إذ يعالج الذكاء الاصطناعي بصورة متزامنة بيانات متعددة المصادر، تشمل لقطات الطائرات المسيّرة، واستخبارات الإشارات، ومعطيات الإمداد واللوجستيات، إلى جانب تدفقات المعلومات عبر وسائل التواصل الاجتماعي، ليُنتج قوائم أهداف مرتّبة وفق الأولوية، مرفقة بتوصيات لأنظمة التسليح وتقييمات قانونية مؤتمتة. وقد انعكس ذلك في كثافة العمليات المنفذة، حيث جرى استهداف أكثر من 1,250 هدفًا خلال الأيام الثلاثة الأولى وحدها، شملت مواقع للصواريخ الباليستية، وسفنًا بحرية، ومنظومات دفاع جوي، بما يعكس تسارع الإيقاع العملياتي في ظل هذا النمط من إدارة العمليات.
وبالتوازي مع منظومات الاستهداف المعززة بالذكاء الاصطناعي، شهدت العملية إدخال منصة تسليحية جديدة إلى ساحة العمليات. فقد نشر البنتاجون، للمرة الأولى في القتال، مسيّرات من طراز نظام الهجوم القتالي بدون طيار “لوكاس” “LUCAS”. وتبلغ تكلفة الوحدة الواحدة نحو 35,000 دولار، أي ما يعادل قرابة واحد على خمسين من تكلفة صاروخ كروز من طراز “توماهوك” “Tomahawk”. وتندرج هذه الذخائر المتسكعة، المستوحاة من تصميم مسيّرات “شاهد” الإيرانية، ضمن فئة الأنظمة القادرة على التحليق فوق منطقة الهدف لفترة محددة قبل الانقضاض بدقة على الهدف، بما يعزز مرونة الضربات ودقة توجيهها ضمن المعادلة العملياتية.
يعكس نشر هذه المسيّرات تبنّي ما يُعرف بعقيدة “الكتلة منخفضة التكلفة”، وهي استراتيجية تقوم على إغراق دفاعات الخصم بكثافة من الأسلحة منخفضة الكلفة والموجّهة بالذكاء الاصطناعي، بدلًا من الاعتماد الحصري على الذخائر الدقيقة مرتفعة الثمن. وفي موازاة الضربات العسكرية، تتواصل عمليات سيبرانية تشمل اختراق تطبيق ديني إيراني واسع الانتشار يستخدمه أكثر من خمسة ملايين شخص، إلى جانب تعطيل متكرر لخدمات الإنترنت في أنحاء البلاد. وفي المحصلة، تمثل أسراب المسيّرات، والعمليات السيبرانية، وأنظمة الاستهداف المدعومة بالذكاء الاصطناعي نموذجًا ناشئًا لكيفية إدارة الولايات المتحدة لحروبها ضمن بيئة عملياتية متغيرة.
غير أن السرعة والنطاق اللذين يمنحان الذكاء الاصطناعي جاذبيته العسكرية ينطويان، في المقابل، على مخاطر جسيمة بدأت تتكشف ملامحها بالفعل في سياق هذا الصراع. ففي 28 فبراير، سقط صاروخ قرب مدرسة في جنوب إيران، ما أسفر عن مقتل 165 شخصًا، كان العديد منهم من الأطفال. وتشير المعطيات إلى أن الموقع كان يقع بمحاذاة ثكنة عسكرية، فيما وصفت الأمم المتحدة الضربة بأنها “انتهاك جسيم للقانون الإنساني”. ولا يزال من غير الواضح ما إذا كان للذكاء الاصطناعي أي دور في تحديد هذا الهدف أو المصادقة على استهدافه.
غير أن حالة عدم اليقين هذه تمثل في حد ذاتها جوهر الإشكالية. فعندما لا يمتلك القائد العسكري سوى دقائق معدودة لمراجعة توصية بالضرب صادرة عن نظام ذكاء اصطناعي، ومسنودة ببيانات مركّبة تتجاوز قدرة الإنسان على جمعها بالوتيرة نفسها، فإن القرار يغدو أقرب إلى المصادقة على مخرجات النظام منه إلى حكم مستقل. وفي هذا السياق، تُعرف أنظمة الذكاء الاصطناعي بقابليتها للخطأ في البيئات غير المتوقعة، وقد أظهرت منظومات الاستهداف في صراعات سابقة معدلات خطأ تقارب 10 بالمئة، بما يطرح احتمال أن تكون مئات الأهداف قد أُدرجت ضمن قوائم الاستهداف على نحو غير دقيق في حملة عسكرية بهذا الحجم.
جرت العملية العسكرية في سياق مواجهة سياسية كشفت هشاشة الأطر الناظمة لاستخدام الذكاء الاصطناعي في الحروب. فحتى الأسبوع الأخير من فبراير 2026، كانت شركة “Anthropic” ترتبط بعقد حصري مع البنتاجون تصل قيمته إلى 200 مليون دولار لنشر نموذج “Claude” عبر الشبكات العسكرية المصنفة سرية. وقد تضمّن هذا العقد، الذي جرى التفاوض عليه خلال إدارة بايدن، قيدين أساسيين: حظر استخدام “Claude” في المراقبة الجماعية للمواطنين الأمريكيين، ومنع توظيفه في تشغيل أسلحة مستقلة بالكامل دون إشراف بشري فعّال. وكانت إدارة ترامب قد قبلت بهذه الشروط في البداية. غير أن نقطة التحول برزت عندما شرعت “Anthropic” في طرح تساؤلات تفصيلية بشأن كيفية استخدام تقنيتها في عملية يناير 2026 التي أسفرت عن القبض على الرئيس الفنزويلي نيكولاس مادورو، ومنذ تلك اللحظة بدأ الخلاف بين الطرفين يتصاعد بوتيرة متسارعة.
من جانبه، طالب وزير الحرب الأمريكي بيت هيجسيث شركة “Anthropic” برفع القيود المفروضة على استخدام تقنيتها، والسماح بما وصفه البنتاجون بـ”جميع الاستخدامات القانونية” لهذه التكنولوجيا، من دون تحديد حدود أخلاقية واضحة لا ينبغي للمؤسسة العسكرية تجاوزها. في المقابل، رفض الرئيس التنفيذي للشركة “داريو أمودي” هذا الطلب، مؤكدًا أن “المراقبة الجماعية المدفوعة بالذكاء الاصطناعي تنطوي على مخاطر جسيمة وغير مسبوقة على حرياتنا الأساسية”، وأن أنظمة الذكاء الاصطناعي الحالية لا تتمتع بدرجة موثوقية كافية تبرر الاعتماد عليها في تشغيل أسلحة مستقلة بالكامل.
وفي هذا السياق، ردّ الرئيس ترامب يوم الجمعة 28 فبراير بإصدار توجيه إلى جميع الوكالات الفيدرالية يقضي بـ”الوقف الفوري لاستخدام تكنولوجيا Anthropic”. وأعقب ذلك قيام “هيجسيث” بتصنيف الشركة باعتبارها خطرًا على سلسلة التوريد للأمن القومي، وهو توصيف كان يُستخدم في السابق أساسًا بحق خصوم أجانب، ما أدى عمليًا إلى منع أي متعاقد عسكري أو مورّد دفاعي من التعامل معها. وفي تطور متزامن، أعلنت “OpenAI” بعد ساعات إبرام اتفاقها الخاص مع البنتاجون، بشروط لا تتضمن، على النقيض، أي قيود أخلاقية محددة تتجاوز حدود المشروعية القانونية، بما يعكس تحولًا في معايير حوكمة استخدام هذه التكنولوجيا داخل المؤسسة العسكرية.
وفي امتداد لذلك، جاءت الاستجابة العامة لهذا الاتفاق سريعة وذات مؤشرات رقمية واضحة. فوفقًا لبيانات شركة “Sensor Tower” المتخصصة في استخبارات السوق، ارتفع معدل حذف تطبيق ChatGPT على الهواتف المحمولة في الولايات المتحدة بنسبة 295% على أساس يومي في 28 فبراير، مقارنة بالمعدل المعتاد البالغ نحو 9%. وفي المقابل، ارتفعت عمليات تنزيل تطبيق “Claude” في الولايات المتحدة بنسبة 51% في اليوم نفسه، كما تصدّر التطبيق متجر App Store الأمريكي بحلول يوم السبت، بعد صعوده أكثر من 20 مرتبة خلال أقل من أسبوع. وفي الوقت ذاته، قفز عدد التقييمات بنجمة واحدة لتطبيق ChatGPT بنسبة 775% في اليوم نفسه، بينما تراجعت التقييمات ذات الخمس نجوم إلى النصف. وفي المحصلة، يعكس هذا السلوك الاستهلاكي صدور حكم ضمني من شريحة من الجمهور، سبق في توقيته ما يمكن أن يعبّر عنه النظام السياسي رسميًا.
تتجاوز الدلالة الأوسع لهذا التسلسل من الأحداث حدود خلاف تعاقدي فحسب. ففي عام 2020، أعلنت وزارة الدفاع الأمريكية مجموعة من المبادئ المنظمة لاستخدام الذكاء الاصطناعي، أكدت أن تكون الأنظمة العسكرية القائمة على هذه التكنولوجيا مسؤولة، ومنصفة، وقابلة للتتبع، وموثوقة، وقابلة للحوكمة. وفي الإطار ذاته، اعتمد حلف شمال الأطلسي مبادئ مماثلة في عام 2021، تلاه تبنّي المملكة المتحدة إطارًا مشابهًا في عام 2022، بما يعكس اتجاهًا متقاربًا بين القوى الغربية في ضبط هذا المجال. وقد شكّلت هذه الأطر، في مجملها، رسالة واضحة إلى روسيا والصين وسائر القوى العسكرية الكبرى بشأن الكيفية التي ينبغي أن يُدار بها استخدام الذكاء الاصطناعي في الحروب.
من خلال إقصاء شركة الذكاء الاصطناعي التي أصرت على الالتزام بتلك المبادئ، واستبدالها بمورّد مستعد للعمل دون قيود تتجاوز حدود المشروعية القانونية، تكون إدارة ترامب قد انسحبت عمليًا من الإجماع الدولي الذي أسهمت في بنائه. وتحمل عبارة “جميع الأغراض القانونية” مظهر وجود ضابط تنظيمي، لكنها تفتقر إلى مضمونه الفعلي، نظرًا لأن القوانين قابلة للتغير، كما أن تفسيراتها تتبدل بتغير الإدارات، وغالبًا ما تُعاد صياغة مفهوم المشروعية بما يتوافق مع أولويات الحكومات.
وفي هذا الإطار، أشار أمودي إلى أن هذه الصياغة لا توفر حماية مستقرة من سوء استخدام تكنولوجيا تتطور قدراتها بوتيرة تتجاوز قدرة الأطر التشريعية على مواكبتها. وعلى هذا الأساس، أسهم التأطير السياسي الذي تبنّته الإدارة في تعتيم جوهر القضية المطروحة، إذ جرى توصيف شركة “Anthropic” بأنها “شركة يسارية متطرفة وwoke” يديرها “متطرفون يساريون”، بما أعاد تأطير نزاع تقني وقانوني في جوهره ضمن إطار صراع ثقافي.
على الجانب الآخر، لم تقتصر ردود الفعل الرافضة لهذه الخطوة على اتجاه سياسي بعينه، بل امتدت عبر مختلف أطياف المشهد السياسي، بما في ذلك شخصيات شاركت في صياغة سياسة الذكاء الاصطناعي الخاصة بالإدارة نفسها، والتي رأت أن هذا القرار يمس مبادئ أساسية تتعلق بحماية الملكية الخاصة.
ومن ناحية أخرى، قوض سلوك الإدارة ذاته المبررات التي أعلنتها. فحتى مع دخول قرار الحظر حيز التنفيذ، واصل الجيش الأمريكي استخدام نموذج “Claude” خلال العمليات في إيران، نظرًا لكونه مدمجًا بعمق داخل الأنظمة التشغيلية على نحو جعل إزالته على إشعار قصير أمرًا غير ممكن عمليًا. وبذلك، وجد البنتاجون نفسه في مفارقة تجمع بين إدراج التكنولوجيا ذاتها على قوائم الحظر والاستمرار في الاعتماد عليها في الوقت نفسه، وهو ما يكشف، بصورة أوضح من أي وثيقة سياسات، مدى تحول الذكاء الاصطناعي إلى عنصر لا غنى عنه في بنية القتال الأمريكية.
وتكتسب هذه الأزمة في الحوكمة أهمية مضاعفة في ظل غياب أي التزام بالإفصاح. إذ لا يزال الدور الذي أدّاه نموذج “Claude” في الضربات على إيران غير معلوم على المستوى العلني: هل حدّد مبانٍ بعينها؟ هل قدّر أعداد الضحايا المحتملة؟ أم أوصى بتسلسل تنفيذ الضربات؟ وحتى الآن، لم يقدم أي مسؤول إجابات واضحة عن هذه التساؤلات، كما لا يوجد إطار قانوني يُلزم بذلك. وفي هذا السياق، يقدّم التاريخ سابقة دالة تتمثل في برنامج المسيّرات الأمريكي الذي أُطلق عقب هجمات 11 سبتمبر 2001، حيث امتنعت الحكومة لسنوات عن الاعتراف به، ولم تُنشر حتى بيانات أولية عن الضحايا إلا بعد خمسة عشر عامًا من الدعاوى القضائية والضغط العام المتواصل، حين أصدرت إدارة أوباما في عام 2016 أرقامًا أساسية اعتبرها كثيرون أقل من الواقع. وعلى هذا الأساس، يُرجّح أن تكون مساءلة استخدام الذكاء الاصطناعي في الحروب أكثر تعقيدًا، نظرًا لأن مخرجاته أقل ظهورًا للعلن، ولأن دوره التشغيلي أكثر اندماجًا في البنية الفعلية للعمليات العسكرية.
يمثل الصراع مع إيران لحظة تحوّل لا تزال ملامحها قيد التشكل. فقد انتقل الذكاء الاصطناعي من كونه أداة تجريبية إلى بنية تشغيلية حاكمة يُعتمد عليها في إدارة العمليات العسكرية، وهو تحول تحقق بوتيرة تتجاوز قدرة أطر الحوكمة على مواكبته. وقد انصب الجدل الذي اندلع في فبراير 2026، بصورة مفهومة، على المواجهة بين شركة “Anthropic” والبنتاجون. غير أن هذا التركيز قد يحجب السؤال الأوسع والأكثر إلحاحًا: ليس ما إذا كان ينبغي استخدام الذكاء الاصطناعي في الحروب، بل وفق أي قواعد يُستخدم، وبأي مستوى من الشفافية، وتحت أي آليات مساءلة يُدار فعليًا في الوقت الراهن.
تتابع الجيوش في مختلف أنحاء العالم ما يجري في الأجواء الإيرانية، لتخلص إلى دلالة مشتركة مفادها أن الحرب المعززة بالذكاء الاصطناعي أثبتت فاعليتها، وأن أقوى قوة عسكرية في العالم تعرض هذا النموذج عمليًا وعلى مرأى الجميع. وانطلاقًا من ذلك، يواجه المجتمع الدولي نافذة زمنية ضيقة ومتقلصة لبلورة قيود ملزمة، وإرساء معايير شفافة لعمليات التعاقد والتوريد، وتفعيل آليات رقابة مستقلة، قبل أن يترسخ إدماج الذكاء الاصطناعي في العمليات العسكرية كواقع عملي مستقر، تتراجع معه قابلية هذه التحولات لإثارة التساؤل أو استدعاء المساءلة.
Baggiarini, Bianca. 2026. “The Pentagon Strongarmed AI Firms before Iran Strikes – in Dark News for the Future of ‘Ethical AI.’” Edited by Michael Lucy. The Conversation , March. https://doi.org/10.64628/aa.4kdscuv4m.
Booth, Robert, and Dan Milmo. 2026. “Iran War Heralds Era of AI-Powered Bombing Quicker than ‘Speed of Thought.’” The Guardian. The Guardian. March 3, 2026. https://www.theguardian.com/technology/2026/mar/03/iran-war-heralds-era-of-ai-powered-bombing-quicker-than-speed-of-thought.
Brown, Larisa. 2026. “How AI Helps 20 US Troops Do the Work of 2,000 in Iran War.” Thetimes.com. The Times. March 3, 2026. https://www.thetimes.com/world/middle-east/article/palantir-ai-software-us-iran-war-lwld892z9.
Mchugh, Calder . 2026. “The War with Iran Is Scrambling the Politics of AI.” POLITICO. March 2, 2026. https://www.politico.com/newsletters/forecast/2026/03/02/the-war-with-iran-is-scrambling-the-politics-of-ai-00807434.
Olson, Parmy. 2026. “How Anthropic’s Claude AI Helped US Bomb Iran.” Www.ndtv.com. NDTV. March 4, 2026. https://www.ndtv.com/opinion/iran-israel-us-war-how-anthropics-claude-ai-helped-us-bomb-iran-11166940.
Perez, Sarah. 2026. “ChatGPT Uninstalls Surged by 295% after DoD Deal | TechCrunch.” TechCrunch. March 3, 2026. https://techcrunch.com/2026/03/02/chatgpt-uninstalls-surged-by-295-after-dod-deal/.
Rowland Manthorpe. 2026. “AI Could Be Giving US Lethal Edge in Iran War – but There Are Dangers.” Sky News. Sky. March 3, 2026. https://news.sky.com/story/ai-could-be-giving-us-lethal-edge-in-iran-war-but-there-are-dangers-13514784.
Steinberg, Jon, and Ezra Wallach. 2026. “War in Iran, Crisis in AI: SF Reacts to Combat, Divergent Moves by Anthropic, OpenAI.” Sfstandard.com. The San Francisco Standard. February 28, 2026. https://sfstandard.com/2026/02/28/war-iran-crisis-ai-sf-reacts-war-diverging-moves-anthropic-openai/.
Stokel-Walker, Chris. 2026. “Trump Is Using AI to Fight His Wars – This Is a Dangerous Turning Point.” The Guardian. The Guardian. March 3, 2026. https://www.theguardian.com/commentisfree/2026/mar/03/trump-using-ai-to-fight-wars-dangerous-us-military.
Vaast, Emmanuelle. 2026. “From Anthropic to Iran: Who Sets the Limits on AI’s Use in War and Surveillance?” Edited by Heather Walmsley. The Conversation, March. https://doi.org/10.64628/aam.fjcnwkwgn.
تعليقات