يشهد المشهد الأمني العالمي تحولاً جذرياً مدفوعاً بالتطور المتسارع لتقنيات الذكاء الاصطناعي، التي تجاوزت كونها مجرد أدوات تقنية لتصبح قوة استراتيجية تعيد رسم خرائط النفوذ والصراع. لقد بات الذكاء الاصطناعي قوة تحويلية ترفد المجتمع بفرص واعدة، لكنها تنطوي في جوهرها على طبيعة مزدوجة الاستخدام تجعلها سلاحاً ذا حدين. وتكشف القراءة المتأنية للسوابق التاريخية عن نمط متكرر تتبناه التنظيمات الإرهابية، يتمثل في البراعة الفائقة في تطويع التقنيات البازغة لخدمة أجنداتها الراديكالية؛ فكما استغلت هذه الجماعات المنتديات الإلكترونية وتطبيقات التراسل المشفرة في السابق، فإنها اليوم تعكف بدأب على سبر إمكانيات الذكاء الاصطناعي وتبنيه، ولم يعد هذا التبني مجرد تكهنات مستقبلية أو مخاوف نظرية، بل انتقل الإرهاب المدعوم بالذكاء الاصطناعي فعلياً من المرحلة النظرية إلى مرحلة التطبيق التجريبي الذي يتسم بالتكرار والانتشار السريع، مما أثار قلق الدوائر الأمنية والحكومات من تحول هذه التقنية إلى "هبة" استراتيجية تعزز قدرات الإرهابيين بصورة غير مسبوقة. إن التقارب بين الذكاء الاصطناعي ومفاهيم الحرب غير المتكافئة يغير بشكل جوهري موازين القوى بين الدول والجهات الفاعلة غير الحكومية، حيث انخفضت بشكل كبير عوائق الدخول التي كانت تفرضها التكنولوجيا العسكرية المتقدمة سابقاً. وتشير الأدلة الميدانية والاستخباراتية إلى أننا أمام استراتيجية تبني متعددة المجالات، تشمل النطاقات المعلوماتية والمادية والسيبرانية، مما يستدعي تحليلاً عميقاً لكيفية إعادة هندسة الإرهاب في عصر الآلة.
يمثل المجال المعلوماتي التطبيق الأبرز والأكثر وضوحاً وانتشاراً للذكاء الاصطناعي لدى الجماعات الإرهابية، حيث أحدث ظهور الذكاء الاصطناعي التوليدي ثورة في اقتصاديات إنتاج الدعاية وسرعتها. فبعد أن كانت “معركة الروايات” تتطلب مكاتب إعلامية مركزية وفرقاً متخصصة من المحررين والمترجمين، تحول الأمر إلى إنتاج صناعي واسع النطاق يمكن إنجازه بواسطة خلايا متفرقة أو أفراد منفردين بتكلفة هامشية شبه معدومة. وتعمل هذه التقنية كعامل مضاعف للقوة يزيل المفاضلة التقليدية بين الوصول الجغرافي والتأثير النوعي، وهو ما ظهر جلياً في تحول جماعات مثل تنظيم الدولة الإسلامية (داعش) والقاعدة نحو خدمات الترجمة المدعومة بالذكاء الاصطناعي. إن الفارق الجوهري هنا يكمن في القدرة على تجاوز الحواجز اللغوية بدقة عالية؛ فعلى عكس الترجمات الآلية التقليدية التي كانت تنتج نصوصاً ركيكة، تتيح النماذج اللغوية الكبيرة الحديثة (LLMs) إمكانية التعديل والضبط للحفاظ على المصطلحات الجهادية المحددة والإيقاع العاطفي للنص الأصلي، مما يسمح بنشر البيانات القيادية إلى جماهير عالمية بلغات متعددة كالإنجليزية والأردية في غضون دقائق من صدورها. وقد تم رصد حالات استخدام لأدوات نسخ صوتية مفتوحة المصدر لترجمة رسائل قيادية وتعميمها فورياً، مما يمكن التنظيمات من الحفاظ على خطاب سردي مُوحد عبر قاعدة دعم عالمية مجزأة. ويدعم هذا التوجه بيانات تشير إلى أرشفة آلاف النصوص المولدة بالذكاء الاصطناعي في أوساط الجماعات المتطرفة، مما ينبئ بنمو كبير في دمج هذه الأدوات ضمن إجراءات التشغيل القياسية.
وتمتد خطورة هذا التحول لتشمل الوسائط الاصطناعية وتقنيات التزييف العميق، التي انتقلت من كونها خطراً نظرياً إلى واقع موثق في ترسانة التطرف، حيث تُستخدم لتزييف التأييدات، وبث البلبلة، وتقويض الثقة في المؤسسات. ومن أبرز التطبيقات المقلقة في هذا السياق، ما تقوم به جماعات اليمين المتطرف والنازيين الجدد من استخدام لتقنية استنساخ الأصوات لإعادة إحياء خطابات شخصيات تاريخية مثل أدولف هتلر. فمن خلال تغذية النماذج بخطابات أرشيفية، يتم توليد مقاطع صوتية جديدة يقرأ فيها الديكتاتور نصوصاً معاصرة باللغة الإنجليزية، مع الحفاظ الكامل على نبرة الصوت الأصلية والأسلوب الخطابي، وذلك بهدف “تحديث” خطاب الكراهية وجعله مستساغاً لجيل الألفية الذي يتفاعل مع الوسائط السمعية والبصرية. وفي سياق موازٍ، سعى تنظيم داعش لتحديث إنتاجه المرئي عبر استخدام مذيعي أخبار مولدين بالذكاء الاصطناعي، وهي صور رمزية يصعب تمييزها عن البشر، تقدم نشرات إخبارية تشبه البث الاحترافي للقنوات العالمية، مما يمنح التنظيم صورة “الخلافة 2.0” المتطورة دون الحاجة لبنية تحتية لوجستية أو تعريض كوادر إعلامية للخطر.
علاوة على ذلك، يمثل الانتقال إلى “التطرف التفاعلي” عبر روبوتات الدردشة قفزة نوعية من استهلاك الدعاية السلبية إلى التفاعل النشط والشخصي. وتكمن خطورة هذه الروبوتات في قدرتها على تكييف خطابها مع شكوك المستخدم وحالته العاطفية، مما يخلق علاقة وهمية تحاكي استراتيجيات التلاعب البشري. وتشير الأبحاث إلى استكشاف الجماعات المتطرفة لاستخدام نماذج تعلم آلي تعمل كـ “مرشدين دينيين” أو أيديولوجيين، مدربة حصرياً على أدبيات متطرفة، لتعمل في بيئات دردشة خاصة توفر مساحة آمنة للمجندين المحتملين لاستكشاف الأفكار الراديكالية. ويشكل هذا التكتيك تهديداً بالغاً للفئات الضعيفة والقصر، حيث يمكن لهذه الروبوتات “المتاحة دائماً” ممارسة عملية تلقين مستمرة واستدراج عاطفي لا يستطيع المجندون البشريون مجاراته من حيث النطاق أو التوافر. كما يبرز في هذا السياق ما يُعرف بـ “الحرب الميمية” للنازيين الجدد، الذين يستخدمون أدوات توليد الصور لإنشاء محتوى بصري كثيف يتجاوز فلاتر الأمان، مما يرهق أنظمة مراقبة المحتوى التقليدية التي تعجز عن تحديد الاختلافات الجديدة لرموز الكراهية المولدة آلياً.
بينما تشكل العمليات المعلوماتية الاستخدام الأوسع، فإن التطبيق الأكثر فتكاً والأهم استراتيجياً يكمن في المجال المادي، وتحديداً في دمج الذكاء الاصطناعي ضمن أنظمة الطائرات المسيرة. يشهد هذا المجال انتقالاً حاسماً من الأجهزة التي يتم التحكم فيها عن بعد، والتي تتطلب مشغلين مهرة وتكون عرضة للتشويش، إلى أنظمة ذاتية التشغيل قادرة على تحديد الأهداف والاشتباك معها باستقلالية تامة. وتمثل حركة الحوثيين (أنصار الله) في اليمن النموذج الأبرز لهذه القدرات، حيث أظهروا قدرة استثنائية على تكييف وتشغيل هذه الأنظمة على نطاق واسع يضاهي قدرات الدول. وقد تجلى هذا التطور في هجوم تل أبيب في يوليو 2024، حينما حلقت طائرة مسيرة من طراز “صماد-3” المطور لمسافة تقارب 2600 كيلومتر لتضرب هدفاً مدنياً بدقة، متجاوزة الدفاعات الجوية المتطورة. ويعد هذا الحادث دليلاً دامغاً على امتلاك جهات فاعلة غير حكومية القدرة على بسط نفوذها عبر آلاف الكيلومترات، وهو إنجاز استراتيجي كان حكراً على الجيوش النظامية.
إن القفزة التكنولوجية الحقيقية في هذه الأنظمة تتمثل في التغلب على إجراءات الحرب الإلكترونية، وتحديداً في بيئات “الحرمان من نظام تحديد المواقع العالمي (GPS) “. تعتمد الأنظمة الجديدة على التوجيه البصري المدعوم بالذكاء الاصطناعي، حيث تستخدم أجهزة استشعار كهروضوئية للتعرف على الأنماط وتحديد أشكال معينة كالسفن أو المباني. والأخطر من ذلك هو استخدام نظام الملاحة التصويرية (SMAC)، الذي يتيح للطائرة مقارنة التضاريس التي تحلق فوقها بصور الأقمار الصناعية المحملة مسبقاً لتحديد موقعها بدقة دون الحاجة لإشارات الأقمار الصناعية المعرضة للتشويش. وتعتمد مرونة هذه البرامج على سلاسل توريد متنوعة تدمج المكونات التجارية المتاحة في السوق المفتوحة، مثل محركات الطائرات النموذجية، مع برمجيات توجيه متقدمة، مما يبرز بوضوح معضلة “الاستخدام المزدوج” للتكنولوجيا.
وإلى جانب الضربات بعيدة المدى، يبرز تهديد “الهجوم الجماعي” أو الأسراب ككابوس تكتيكي لأجهزة الأمن والدفاع. فقد أصبح بإمكان الجماعات الإرهابية شن أسراب بدائية تعمل بتنسيق تام لإرباك الدفاعات، مستفيدة من توفر الطائرات المسيرة التجارية المصنعة في الصين مثل “السمكة المنتفخة A3”. هذه الطائرات، التي تُسوق بقدرات ذاتية التشغيل، يمكن برمجتها لإغراق منطقة مستهدفة بكثافة نيران هائلة، حيث لا يستطيع أي مشغل بشري تنسيق عشرات الطائرات في وقت واحد، في حين يتكفل الذكاء الاصطناعي بتوزيع الأهداف وتنفيذ هجمات “الإطلاق والنسيان”. ولا يقتصر هذا التطور على الحوثيين، بل تشير التقارير إلى تجارب حركة حماس على الذخائر المتسكعة المبرمجة مسبقاً، واهتمام تنظيم داعش المستمر ببرنامجه للطائرات المسيرة، مما يوحي باحتمالية تصاعد هذه التهديدات مع إعادة تنظيم صفوف هذه الجماعات.
في الفضاء السيبراني، أدى ظهور الذكاء الاصطناعي إلى تغيير جذري في معادلة المخاطر، موفراً للإرهابيين بيئة عمليات منخفضة المخاطر وعالية العوائد. وقد نشأت فئة جديدة من الأسلحة السيبرانية تتمثل في “نماذج اللغة الكبيرة الخبيثة” (Malicious LLMs)، التي تفصل القدرة على شن هجمات معقدة عن الحاجة لمهارات تقنية عالية. فقد طور مجرمو الإنترنت والمتعاطفون مع المتطرفين أدوات مثل (WormGPT) و(FraudGPT)، وهي نماذج “ذكاء اصطناعي مظلم” مُدربة على بيانات البرمجيات الخبيثة ومصممة خصيصاً لتجاوز الضوابط الأخلاقية، وتُسوق كبدائل غير مشروعة للنماذج التجارية المعروفة. وتتمتع هذه النماذج بقدرات فائقة تشمل كتابة برمجيات خبيثة متعددة الأشكال (Polymorphic Malware) قادرة على تغيير توقيعها لتفادي برامج مكافحة الفيروسات، وصياغة رسائل تصيد احتيالي متقنة بلغات متعددة لا يمكن تمييزها عن الرسائل الشرعية.
وبالنسبة للجماعات الإرهابية التي تفتقر إلى كوادر تقنية متقدمة، تُعد هذه الأدوات “عامل تمكين” استراتيجي، حيث يمكن لعنصر ذي مهارات متواضعة استخدامها لشن حملات تصيد موجهة تستهدف البنية التحتية الحيوية أو المؤسسات المالية، مما يزيل فعلياً عوائق تنفيذ الهجمات السيبرانية المعقدة. كما مكنت هذه التقنيات من الانتقال من الأدوات البدائية التي تتطلب تدخلاً يدوياً، مثل “مدفع الخلافة” الذي استخدمه داعش سابقاً، إلى أتمتة سلسلة الهجوم السيبراني بأكملها. فاليوم، تستطيع برامج الذكاء الاصطناعي إجراء عمليات استطلاع ومسح لآلاف العناوين بحثاً عن ثغرات، ومن ثم تسليح هذه الثغرات عبر كتابة برامج استغلال مخصصة، وأخيراً تنفيذ الهجوم عبر شبكات الروبوتات بسرعة تفوق قدرة المدافعين البشريين على الاستجابة. ولم يعد التهديد مرتبطاً بعدد المخترقين البشريين، بل بالقدرة الحاسوبية المتاحة للأتمتة. ويمتد هذا الخطر ليشمل تمويل الإرهاب، حيث تُستخدم أدوات الذكاء الاصطناعي التوليدية لإنشاء هويات مزيفة ووثائق واقعية، واستخدام التزييف العميق لاجتياز عمليات التحقق البيومترية في البنوك، مما يسهل عمليات غسل الأموال وتمويل العمليات.
لعل الجانب الأكثر خطورة وإغفالاً في هذا المشهد المتغير هو استخدام الذكاء الاصطناعي من قبل الجهات الفاعلة غير الحكومية لأغراض السيطرة، والحكم، والاضطهاد، وليس فقط للعمليات القتالية. ويشكل “استيلاء” هذه الجماعات على أنظمة القياسات الحيوية (Biometrics) التابعة للدول فشلاً كارثياً في أمن البيانات ذو عواقب وخيمة. وتعد تجربة أفغانستان مثالاً صارخاً على ذلك، فبعد انهيار الحكومة في عام 2021، استولت حركة طالبان على أجهزة (HIIDE) العسكرية الأمريكية وقواعد البيانات المرتبطة بها، التي كانت تحتوي على مسح لقزحية العين وبصمات الأصابع لملايين المواطنين. وقد تحولت هذه التقنيات، التي صُممت أصلاً لتحقيق الاستقرار وتتبع المتمردين، إلى أداة فتاكة بيد الحركة لمطاردة وتصفية الخصوم، والقوات الأمنية السابقة، والمترجمين بشكل منهجي عبر نقاط تفتيش ذكية.
تبرز هذه الحالة خطورة “الاستخدام المزدوج” لأدوات السيطرة على الهوية، وتكشف عن خاصية “الصلابة” المخيفة للبيانات البيومترية؛ فبينما يمكن تغيير كلمة المرور المخترقة، لا يمكن للفرد تغيير قزحية عينه أو بصمته، مما يجعله هدفاً دائماً في حال وقوع قاعدة البيانات في الأيدي الخطأ. ولا يقتصر هذا التهديد على مناطق النزاع، بل يمتد إلى الديمقراطيات الغربية، حيث تستخدم الجماعات المتطرفة والنازيين الجدد تقنيات التعرف على الوجوه التجارية المتاحة للعموم مثل (PimEyes) كسلاح للتشهير الإلكتروني (Doxxing) وتُستخدم هذه الأدوات لتحديد هوية المتظاهرين والمعارضين السياسيين من خلال صورهم في التجمعات العامة، ومن ثم استهدافهم بحملات مضايقة وتهديدات، مما يخلق فعلياً “دولة مراقبة خاصة” تتيح لهذه الجماعات تتبع وترهيب أعدائها دون الحاجة لامتلاك بنية تحتية حكومية. ويعني انتشار هذه الخوارزميات أن إخفاء الهوية في الأماكن العامة لم يعد خياراً مضموناً، مما يعيد تعريف مفاهيم الخصوصية والسلامة الشخصية في العصر الرقمي.
وفي الختام، تشير مجمل المعطيات والسوابق الميدانية إلى أن العالم يشهد المراحل الأولى من “سباق تسلح خوارزمي” بين الجماعات الإرهابية والأجهزة الأمنية، يتسم بعدم تكافؤ الفرص لصالح المهاجمين. ويضخم الذكاء الاصطناعي هذه الميزة غير المتكافئة من خلال فصل “التأثير” عن “التكلفة”؛ فمن الناحية الاقتصادية، يمكن لطائرة مسيرة رخيصة مزودة ببرمجيات مفتوحة المصدر أن تتحدى أنظمة دفاعية باهظة الثمن، مما يرجح كفة استنزاف الدول. ومن حيث النطاق، تتيح الأتمتة لأفراد قلائل إحداث تأثير إعلامي وسيبراني يضاهي جيوشاً إلكترونية كاملة، مع تعقيد عملية تحديد المسؤولية وإنكار الهجمات. وعلاوة على ذلك، يلوح في الأفق تهديد “الذكاء الاصطناعي المعادي”، حيث قد لا يكتفي الإرهابيون باستخدام التقنية، بل قد يسعون لمهاجمة أنظمة الذكاء الاصطناعي الحكومية عبر “تسميم” البيانات أو استخدام أنماط تربك الخوارزميات الدفاعية أو الحصول على معلومات مولدة بالذكاء الاصطناعي حول تصنيع الأوبئة والأمراض المعملية وقد يصل الأمر إلى ما هو أبعد وهو تصنيع أسلحة فتاكة أو الحصول على معلومات حول طرق وأساليب تصنيعها أو أماكن تخزينها. إن التمرد الخوارزمي لم يعد مستقبلاً ننتظره، بل واقعاً نحلل معاركه الأولى، ويتطلب الاستعداد له إعادة نظر جذرية في أمن البيانات، وتنظيم النماذج مفتوحة المصدر، وحماية التكنولوجيا مزدوجة الاستخدام، إذ يتلاشى الحاجز الفاصل بين القدرات السيادية وقدرات الجهات الفاعلة غير الحكومية بسرعة مذهلة.
Burdett, Emma. “How LLMs Like WormGPT Are Reshaping Cybercrime in 2025.” Rapid7, June 26, 2025. Accessed January 27, 2026. https://www.rapid7.com/blog/post/ai-goes-on-offense-how-llms-are-redefining-the-cybercrime-landscape/.
Cubukcu, Suat, and Evan Jordan. “The Houthi Drone Supply Chain – Orion Policy Institute.” Orion Policy Institute. July 26, 2025. https://orionpolicy.org/the-houthi-drone-supply-chain/.
Dlewis. “Preventing Terrorists from Using Emerging Technologies.” Vision of Humanity, April 21, 2025. https://www.visionofhumanity.org/preventing-terrorists-from-using-emerging-technologies/.
Friedland, Alex. “IDF Uses AI to Accelerate Targeting According to Report, the White House Releases Guidance on Federal AI Use, and a Roundup of the Latest Computing and Funding News | Center for Security and Emerging Technology.” Center for Security and Emerging Technology, April 11, 2024. Accessed January 10, 2026. https://cset.georgetown.edu/newsletter/april-11-2024/.
Hu, Margaret. “The Taliban Reportedly Have Control of US Biometric Devices – a Lesson in Life-and-Death Consequences of Data Privacy.” Nextgov.com, August 30, 2021. Accessed January 23, 2026. https://www.nextgov.com/ideas/2021/08/taliban-reportedly-have-control-us-biometric-devices-lesson-life-and-death-consequences-data-privacy/184948/.
Hummel, Kristina, and Michael Knights. “The Houthi War Machine: From Guerrilla War to State Capture.” Combating Terrorism Center at West Point, September 17, 2018. Accessed January 18, 2026. https://ctc.westpoint.edu/houthi-war-machine-guerrilla-war-state-capture/.
Hummel, Kristina, Don Rassler, and Yannick Veilleux-Lepage. “On the Horizon: The Ukraine War and the Evolving Threat of Drone Terrorism.” Combating Terrorism Center at West Point, March 28, 2025. Accessed January 25, 2026. https://ctc.westpoint.edu/on-the-horizon-the-ukraine-war-and-the-evolving-threat-of-drone-terrorism/.
Makuch, Ben. “Extremists Are Using AI Voice Cloning to Supercharge Propaganda. Experts Say It’s Helping Them Grow.” The Guardian, December 21, 2025. https://www.theguardian.com/technology/2025/dec/21/ai-voice-cloning-nazis-islamic-state-extremism.
Mathur, Priyank, Clara Broekaert, and Colin P. Clarke. “The Radicalization (and Counter-radicalization) Potential of Artificial Intelligence.” International Centre for Counter-Terrorism – ICCT, May 1, 2024. Accessed January 10, 2026. https://icct.nl/publication/radicalization-and-counter-radicalization-potential-artificial-intelligence.
Nelu, Clarisa. “Exploitation of Generative AI by Terrorist Groups.” International Centre for Counter-Terrorism – ICCT, June 10, 2024. Accessed January 6, 2026. https://icct.nl/publication/exploitation-generative-ai-terrorist-groups.
Nevola, Luca, and Valentin D’Hauthuille. “Six Houthi Drone Warfare Strategies: How Innovation Is Shifting the Regional Balance of Power | ACLED.” ACLED, December 11, 2025. Accessed January 21, 2026. https://acleddata.com/report/six-houthi-drone-warfare-strategies-how-innovation-shifting-regional-balance-power.
OE Data Integration Network (ODIN). “Sammad-3 Yemeni Reconnaissance and Loitering Munition Unmanned Aerial Vehicle (UAV),” October 6, 2024. Accessed January 27, 2026. https://odin.tradoc.army.mil/WEG/Asset/Sammad-3_Yemeni_Reconnaissance_and_Loitering_Munition_Drone.
Schoemaker, Emrys. “The Taliban Are Showing Us the Dangers of Personal Data Falling Into the Wrong Hands.” The Guardian, September 7, 2021. https://www.theguardian.com/global-development/2021/sep/07/the-taliban-are-showing-us-the-dangers-of-personal-data-falling-into-the-wrong-hands.
Stevenson, James. “Technology Evolves the Tactics: Preparing for the Rise of Terrorist AI Harms.” Centre for Research and Evidence on Security Threats, October 15, 2025. Accessed January 10, 2026. https://crestresearch.ac.uk/comment/technology-evolves-the-tactics-preparing-for-the-rise-of-terrorist-ai-harms/.
تعليقات