كتب بواسطة

يعيد الذكاء الاصطناعي تشكيل أنماط المنافسة الدولية بطرق لم تبدأ الحكومات بعدُ في استيعاب تداعياتها الكاملة. فقد أفضى انتشار العمليات السيبرانية المعزَّزة بالذكاء الاصطناعي إلى نشوء بيئة استراتيجية جديدة تتّسم بتسارع الاختراقات، وسهولة عبورها للحدود، وقلّة الأدلة التي تسمح بتحديد الجهة المسؤولة على نحو موثوق. وفي هذا السياق، تجد الدول نفسها أمام مشهد تتراجع فيه قابلية تحديد المسؤولية بدقّة، بينما يصبح الحكم الاستراتيجي أكثر هشاشة وعرضة لسوء التقدير. فمع تآكل إشارات الإنذار التقليدية، وتعقّد عمليات تحديد الجهة المسؤولة، تتزايد مخاطر الخطأ في التقييم واتخاذ القرار، بما يوسّع هامش التصعيد غير المقصود في صراعات تعمل في الظل وتتحرّك دون بصمات واضحة.

 

لطالما تحرّكت الجاسوسية والعمليات السرّية في فضاءات ضبابية بطبيعتها، غير أنّ إدماج الذكاء الاصطناعي في هذه الممارسات سرّع وتيرة الأحداث وأضعف الإشارات التي اعتاد مسؤولو الأمن القومي الاعتماد عليها في تقدير المواقف. ويستدعي هذا التحوّل اهتمامًا استراتيجيًا مستدامًا، لا بسبب التسارع المتواصل في التطوّر التكنولوجي فحسب، بل لأن مخاطر سوء التفسير والتصعيد غير المقصود باتت أكثر حدّة، وأوسع أثرًا مما كانت عليه في السابق.

اختراقات بسرعة الآلة

تكشف الإفصاحات الأخيرة الصادرة عن شركة Anthropic إلى أيّ حدّ تتسارع وتيرة تطوّر الأنشطة السيبرانية الهجومية في عصر الذكاء الاصطناعي. فبحسب الشركة، استخدمت مجموعة مرتبطة بالصين نظام Claude لأتمتة ما يصل إلى 90% من إحدى حملات التجسّس الحديثة. وعوضًا عن الاعتماد على العنصر البشري في الإعداد للاختراق وتنفيذه، لجأ المشغّلون إلى تفكيك العملية إلى مهام رقمية صغيرة تشبه أعمالًا روتينية، ثم أوكلوا إلى النموذج تنفيذها تحت غطاء ما بدا وكأنه تدقيق أمني معياري. ويعكس هذا الأسلوب انتقال الهجمات السيبرانية من نمط يعتمد على المهارة البشرية إلى نمط تُدار فيه العمليات بوتيرة آلية، وبدرجة أعلى من السرعة والتمويه.

 

ثم تولّى Claude تنفيذ سلسلة متكاملة من المهام، شملت مسح الشبكات، وتحديد الأصول ذات القيمة، واختبار الثغرات، واستخراج البيانات، مع حدٍّ أدنى من الإشراف البشري. وأكّدت شركة Anthropic تسجيل عدد من الاختراقات الناجحة التي استهدفت شركات كبرى وهيئات حكومية، ووصفت هذه الوقائع بأنها أول أمثلة واسعة النطاق يتولّى فيها نظام ذكاء اصطناعي بنفسه معظم مهام اتخاذ القرار التكتيكي.

تندرج هذه الحالة ضمن اتجاه أوسع آخذ في التبلور. فقد رصدت Google استخدام مشغّلين عسكريين روس للذكاء الاصطناعي لتوليد تعليمات برمجية خبيثة في الزمن الحقيقي ضد أهداف أوكرانية، مع تكييف الأدوات على نحو ديناميكي تبعًا لتغيّر مجريات الميدان. وفي السياق ذاته، وثّقت شركة الأمن السيبراني Volexity نشاط مجموعات مرتبطة بالصين استخدمت الذكاء الاصطناعي لتحديد الأهداف وبناء حملات تصيّد احتيالي مؤتمتة، قادرة على التكيّف تلقائيًا مع السياق العملياتي.

 

تكشف هذه التطوّرات عن تحوّل جوهري، إذ باتت المراحل الأكثر استنزافًا للجهد في أي عملية—بما في ذلك الاستطلاع وتطوير الأدوات—تُدار على نحو متزايد بواسطة أنظمة مؤتمتة. فما كان يتطلّب سابقًا موارد كبيرة يمكن اليوم إنجازه بسرعة وبصورة متكرّرة، ما يمنح حتى الفرق الصغيرة القدرة على تنفيذ اختراقات واسعة النطاق عبر بيئات متعددة وبوتيرة لم تكن ممكنة من قبل.

 

يُعيد هذا التسارع رسم ميزان المخاطر على نحو جوهري. ففي حين كانت العمليات التقليدية تستغرق أيامًا أو أسابيع للتخطيط والتنفيذ، بما يمنح المدافعين وقتًا كافيًا لرصد دلائل نشاط غير مألوف أو الاستجابة لإشارات إنذار مبكرة، يضغط الذكاء الاصطناعي الأطر الزمنية إلى حدّها الأدنى. إذ بات بوسع مُشغّل واحد، باستخدام أدوات مؤتمتة، إطلاق هجمات متزامنة على عشرات المؤسسات، فيما يستطيع النظام ذاته إعادة كتابة الشيفرة، واختبار مسارات بديلة، وتكييف سلوكه العملياتي ذاتيًا، من دون توقّف يُذكر لانتظار تدخّل بشري.

 

يؤدّي هذا المسار إلى تقليص البصمة المرئية للاختراق، ويجعل من الأصعب على فرق الدفاع فهم ما جرى فعليًا، ولا سيّما عندما تعتمد المكوّنات التقنية على أدوات مفتوحة المصدر شائعة تندمج بسلاسة في حركة الإنترنت الاعتيادية. كما أنّ التحوّل من أدوات اختراق مُصمَّمة خصيصًا إلى أتمتة معيارية يوسّع قاعدة الفاعلين المحتملين، ويعزّز قدرات الجهات ذات الموارد المحدودة، بما يمكّنها من تنفيذ هجمات أكثر تعقيدًا بكلفة أقلّ وبمستوى أدنى من قابلية التتبّع.

 

وتكشف هذه الحادثة، في الوقت ذاته، عن هشاشة بنيوية في منظومات الحماية الحالية. فلم يتمّ الالتفاف على نظام Claude عبر اختراق تقني متقدّم أو استغلال ثغرة هندسية معقّدة، بل من خلال الهندسة الاجتماعية، حيث قُدِّمت كل خطوة من خطوات العملية بوصفها إجراءً مشروعًا ضمن تقييم أمني اعتيادي. وقد مكّن هذا الإطار السردي المضلِّل المشغّلين من تجاوز الضوابط المصمَّمة للحدّ من السلوك الضار. ويعكس ذلك قصورًا أعمق يتمثّل في محدودية الوعي السياقي للنموذج، إذ إن عجزه عن إدراك الصورة الكلّية للعملية جعل التبريرات الجزئية كافية لتعطيل آليات الأمان المُدمَجة في بنيته التشغيلية، رغم أنها وُضعت أساسًا لمنع مثل هذه الانتهاكات.

 

وفي الوقت نفسه، أسهمت نزعة الذكاء الاصطناعي إلى توليد ادعاءات غير دقيقة أو مُبالغ فيها في إرباك الطرفين معًا، المهاجمين والمدافعين على حدّ سواء، إذ عمد النظام أحيانًا إلى تضخيم تقديره لما أُنجز فعليًا. ويكشف هذا القصور أنّ العمليات المعزَّزة بالذكاء الاصطناعي ما تزال، في مرحلتها الراهنة، بعيدة عن الاستقلالية الكاملة وتعتمد على قدر من الإشراف البشري والتصحيح المستمر. غير أنّ دلالة هذه المحدودية لا تكمن في ما تعكسه من ضعف حالي، بل في ما تُخفيه من مسار تطوّر متسارع؛ إذ تشير سرعة التحسينات الجارية إلى أنّ الفاصل بين الذكاء الاصطناعي بوصفه أداة دعم، وبين تحوّله إلى فاعل تنفيذي شبه مستقل، آخذ في الانكماش بوتيرة سريعة، بما ينذر بتغيّر نوعي في طبيعة العمليات السيبرانية المقبلة.

غموض المسؤولية في عالمٍ مُتشظٍّ

يُعدّ تآكل القدرة على تحديد الجهة المسؤولة عن الاختراق أحد أخطر التداعيات الناجمة عن هذه التحوّلات. فبينما كانت مسألة تحديد المسؤولية دائمًا معقّدة بطبيعتها، فإنها باتت اليوم أكثر هشاشة وتعقيدًا من أي وقت مضى. فعندما تُنفَّذ الهجمات عبر سلسلة من المهام الصغيرة المتفرّقة التي ينجزها نموذج مُدرَّب على بيانات عالمية واسعة، تتلاشى الحدود التقليدية بين الفاعلين، وتفقد المؤشّرات التقنية التي يعتمد عليها المحقّقون وضوحها ودلالتها. وفي مثل هذا السياق، لا يصبح الغموض مجرّد عائق تقني، بل يتحوّل إلى عامل بنيوي يعقّد المساءلة ويقوّض أسس التقدير الاستراتيجي.

 

لطالما اعتمد المحقّقون في تحديد هوية المهاجم على ما يمكن تسميته بـ«البصمة البشرية» للهجوم، بما يشمل أنماط السلوك، وأساليب كتابة الشيفرة، والعادات اللغوية، وروتين التنفيذ العملياتي. غير أنّ إدخال الذكاء الاصطناعي إلى هذه العمليات يُجرِّد الهجمات من كثير من هذه السمات، عبر إحلال عمليات مؤتمتة معيارية محلّ قرارات بشرية فردية. ونتيجة لذلك، تتآكل الفوارق التي كانت تسمح بالتمييز بين فاعلٍ تابعٍ لدولة، أو جهة تعمل بالوكالة عنها، أو مجموعة إجرامية منظَّمة تستخدم الأدوات ذاتها. وفي مثل هذا السياق، لا يختفي الفاعل فحسب، بل تتلاشى الحدود التي يقوم عليها التمييز السياسي والقانوني بين أنماط التهديد المختلفة.

 

ويزداد هذا الغموض تعقيدًا بفعل الحوافز السياسية لإنكار المسؤولية. فبعد إفصاح شركة Anthropic، سارعت الصين إلى نفي أي صلة لها بالحادثة. وصرّح متحدث باسم السفارة الصينية في واشنطن بأن تتبّع الهجمات السيبرانية مسألة شديدة التعقيد، متّهمًا الولايات المتحدة باستخدام قضايا الأمن السيبراني لـ”تشويه سمعة الصين والإساءة إليها”، ومؤكدًا أن “الصين تعارض بشدّة جميع أشكال الهجمات السيبرانية وتعمل على مكافحتها”.

 

وحتى في الحالات التي ينجح فيها المحقّقون في تعقّب البُنى التحتية أو الأساليب المستخدمة في الاختراق، تبرز معضلة أكثر تعقيدًا تتعلّق بتحديد طبيعة الفاعل ذاته. إذ يبقى من الصعب الجزم بما إذا كان الهجوم نُفِّذ بمبادرة مستقلة، أم في إطار توجيه أو رعاية من دولة معيّنة. ويشكّل هذا الغموض، بطبيعته، مساحة استراتيجية سيواصل الخصوم استغلالها للتنصّل من المسؤولية، وإرباك جهود الردّ والمساءلة.

 

وتُسهم هذه الديناميات في رفع مخاطر سوء التقدير الاستراتيجي. فإذا أطلقت الأدوات المؤتمتة اختراقات متزامنة تمتد عبر عدة قطاعات، قد تُفسِّر الدولة المستهدفة هذا النشاط بوصفه تهيئةً لأزمة جيوسياسية كبرى أو تمهيدًا لتصعيد أوسع. وفي هذا الإطار، تشير التقارير الحديثة حول حملات التجسّس والتموضع المسبق المرتبطة بالدولة الصينية—مثل Volt Typhoon وSalt Typhoon—إلى مساعٍ لترسيخ وجود داخل شبكات أجنبية حسّاسة قبل وقت طويل من اندلاع أي مواجهة رسمية، بما يضاعف احتمالات التفسير الخاطئ والتصعيد غير المقصود.

 

تجعل الأنظمة المعزَّزة بالذكاء الاصطناعي هذه العمليات أسهل من حيث التوسّع وأشدّ تعقيدًا في الرصد. وفي سياق الأزمات، قد تدفع هذه الديناميات دولةً ما إلى ردٍّ حاد قبل تبلور صورة كاملة عمّا يحدث، بما يُسرّع حلقة من المنافسة المتصاعدة التي لا يملك أيٌّ من الطرفين سيطرة كاملة على مسارها.

 

ويُبرز سيناريو افتراضي هذه المخاطر بوضوح أكبر. فلنتصوّر دولةً كبرى تكتشف أنّ بيانات حسّاسة—بما في ذلك مواد ذات صلة بالدفاع—قد جرى الاستيلاء عليها سرًّا على مدى أشهر. وفي مثل هذا الوضع، لا توفّر المؤشّرات التقنية المتاحة قدرًا كافيًا من الوضوح، بما يحرم المحقّقين من دلائل موثوقة تمكّنهم من تحديد الجهة المنفِّذة للاختراق.

 

اعتمدت العملية على أدوات ذكاء اصطناعي متعددة الأغراض ومتاحة عالميًا، من دون أن تترك بصمات تُتيح تحديد طبيعة الفاعل على نحو حاسم—سواء كان فريقًا مدعومًا من دولة، أو جهة تعمل بالوكالة بتوجيه جزئي، أو مجموعة إجرامية مستقلة. ومع تصاعد الضغوط الدبلوماسية، يرى بعض المسؤولين أنّ الهجوم قد يشكّل تمهيدًا لمواجهة أوسع، في حين يحذّر آخرون من أنّ الردّ في ظلّ غياب اليقين قد يقود إلى استهداف طرفٍ غير معنيّ.

 

وتسارع الدولة المتّهمة إلى إنكار شامل، مؤطِّرة الاتهامات بوصفها ذات دوافع سياسية، ومشدّدة على أنّ تحديد المسؤولية في الفضاء السيبراني مسألة بطبيعتها محلّ شكّ دائم. وفي ظلّ هذا الغموض، تتزايد احتمالات التصعيد، إذ يقرأ كلّ طرف الحدث نفسه من خلال عدسته الاستراتيجية الخاصة، فيما يفتقر الجانبان إلى أدلة حاسمة تتيح تعديل الردّ أو احتواء مسار الأزمة.

فاعلون جدد ومخاطر آخذة في الاتّساع

يُسهم انتشار الأدوات المعزَّزة بالذكاء الاصطناعي في توسيع قاعدة الفاعلين القادرين على الانخراط في أنشطة سيبرانية هجومية. فبينما كانت الاختراقات واسعة النطاق في السابق تتطلّب خبرة تقنية متقدّمة وموارد كبيرة وقدرات تنظيمية معقّدة، بات في مقدور أفراد ذوي خبرة محدودة اليوم توليد شيفرات ضارّة عبر التلاعب بأنظمة ذكاء اصطناعي جرى تعديلها لتجاوز ضوابط السلامة، ما يخفض عتبة الدخول إلى هذا المجال ويرفع منسوب المخاطر المرتبطة به.

 

تمنح هذه الأدوات مجموعات صغيرة قدرات كانت في السابق حكرًا على وحدات حكومية متطوّرة للغاية. وفي المقابل، يتيح الذكاء الاصطناعي للمشغّلين المحترفين توسيع نطاق هجماتهم إلى ما يتجاوز الحدود التقليدية، عبر استكشاف الثغرات على نطاق أوسع، واختبار مسارات هجومية بديلة، والتكيّف السريع مع إجراءات الدفاع المتغيّرة.

 

تُبرز أنظمة مثل XBOW، القادرة على البحث المستقل عن الثغرات وتحديد مسارات استغلالها، السرعة التي تتلاشى بها الحدود بين الفعل الموجَّه بشريًا والفعل المدفوع آليًا. ومع تنامي قدرات هذه الأنظمة، يُحتمل أن تصبح قادرة على إعادة كتابة أدواتها ذاتيًا والتكيّف مع الإجراءات الدفاعية في الزمن الحقيقي، ما يجعل احتواءها أكثر تعقيدًا وصعوبة.

 

ولا يقتصر هذا التحدّي على احتمال توظيف هذه الأدوات من قِبل دولٍ معادية فحسب، بل يمتدّ إلى خطر انتشارها خارج إطار الدولة، لتصل إلى شبكات إجرامية وميليشيات وجماعات ذات دوافع سياسية، تختلف حوافزها ومنطق سلوكها جذريًا عن حوافز الحكومات القائمة.

 

تتزامن بروز هذه المخاطر مع مرحلة تشهد فيها دولٌ عديدة تراجعًا في مستويات الاستثمار العام في الأمن السيبراني. ففي الولايات المتحدة، أقدمت وكالات حكومية على خفض ميزانياتها وتقليص كوادرها البشرية. وتظهر ضغوط مماثلة في المملكة المتحدة وفي عدد من دول الاتحاد الأوروبي، حيث تُحذّر وكالات الأمن السيبراني من نقص في المهارات الحرجة وتفاوت ملحوظ في مستويات الجاهزية والاستعداد.

 

وتواجه السلطات المحلية صعوبات متزايدة في تأمين البُنى التحتية الحيوية، ما يفتح ثغرات يمكن للأنظمة المؤتمتة استغلالها. وفي المقابل، قد تتردّد الشركات الخاصة في الإبلاغ عن حالات إساءة استخدام الذكاء الاصطناعي خشية الإضرار بسمعتها، الأمر الذي يترك صانعي السياسات أمام فهم منقوص لطبيعة التهديد وحجمه. وتُضيف هذه الحالة من التشتّت طبقة إضافية من عدم اليقين إلى بيئة تتّسم أصلًا بقدرٍ عالٍ من الهشاشة وعدم الاستقرار.

 

تشير هذه الاتجاهات إلى تشكّل مشهد تتزايد فيه سهولة امتلاك القدرات الهجومية، فيما تتخلّف الإجراءات الدفاعية عن اللحاق بها. فالأنظمة المعزَّزة بالذكاء الاصطناعي باتت قادرة على تنفيذ اختراقات واسعة بسرعة وبصمت، ما يعقّد تحديد المسؤولية ويُربك خيارات الردّ لدى الدول. ومع اتّساع دائرة الفاعلين المحتملين، تتعاظم صعوبة الحفاظ على الاستقرار الاستراتيجي في بيئة تتبدّل بوتيرة متسارعة.

 

وتواجه الحكومات تحدّي مواءمة أدواتها وقواعدها وأطر التعاون القائمة مع اتّساع نطاق هذه التطوّرات وتسارعها. ومن دون تكيّف فعّال وملموس، قد يميل ميزان العلاقة بين الهجوم والدفاع أكثر لصالح الأوّل، بما يعرّض الدول لمخاطر متزايدة من سوء التقدير والتصعيد غير المقصود.

 

وعلى العموم، بات اتجاه المسار واضحًا. فالاختراقات التي كانت تتطلّب في السابق تخطيطًا مكثّفًا وخبرة بشرية متخصّصة أصبحت اليوم أكثر اعتمادًا على الأتمتة، وأقل كلفة في التنفيذ، وأشدّ صعوبة في تحديد الجهة المسؤولة عنها. وفي الوقت نفسه، شرعت قوى كبرى بالفعل في توظيف الذكاء الاصطناعي لتوسيع نطاق حضورها في الفضاء السيبراني، مع الاستمرار في إنكار أي صلة مباشرة حتى مع تراكم المؤشّرات التي ترجّح تورّطها.

 

ومع التسارع المستمر في تطوّر الذكاء الاصطناعي، تتجه العمليات السيبرانية نحو مستوى أعلى من التعقيد والترسّخ، فيما تصبح الحدود الفاصلة بين التجسّس والتخريب والتهيئة للصراع أكثر ضبابية وصعوبة في التأويل. ولا يقتصر التحدّي الذي يواجه الحكومات على استعادة قدر من قابلية التنبّؤ في بيئة تتّسم بالغموض، بل يتمثّل أساسًا في إعادة بناء منطق الدفاع السيبراني ذاته، بحيث ينتقل من الاستجابة اللاحقة إلى الاستباق الفعّال.

 

وفي عالم تتقدّم فيه سرعة العمليات المدفوعة بالذكاء الاصطناعي على قدرة البشر والمؤسسات على التفسير والحكم، باتت الافتراضات التي وجّهت التقدير الاستراتيجي لعقود موضع اختبار حقيقي. فغياب التكيّف العميق لا يهدّد فقط بزيادة الاختراقات، بل يفتح الباب أمام سوء تقدير منهجي وتصعيد غير مقصود، في بيئة لم تعد فيها الإشارات واضحة ولا النوايا قابلة للقراءة بسهولة.

المراجع

Anthropic . 2025. “Disrupting the First Reported AI-Orchestrated Cyber Espionage Campaign.” https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf.

 

Keating, Joshua. 2025. “The Scary Implications of the World’s First AI-Orchestrated Cyberattack.” Vox. November 14, 2025. https://www.vox.com/politics/468746/ai-cyber-attacks-china-claude-anthropic.

 

Sabin, Sam. 2025. “The Age of AI-Powered Cyberattacks Is Here.” Axios. November 16, 2025. https://www.axios.com/2025/11/16/ai-cyberattacks-foreign-governments.

 

Schechner, Sam, and Robert McMillan. 2025. “Exclusive | Chinese Hackers Used Anthropic’s Claude AI Model to Automate Cyberattacks.” The Wall Street Journal. November 13, 2025. https://www.wsj.com/tech/ai/china-hackers-ai-cyberattacks-anthropic-41d7ce76.

 

Withers, Caleb . 2025. “Tipping the Scales Emerging AI Capabilities and the Cyber Offense-Defense Balance.” CNAS. September 23, 2025. https://www.cnas.org/publications/reports/tipping-the-scales.

تعليقات

أكتب تعليقا

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *