كتب بواسطة

أصبحت أنظمة الذكاء الاصطناعي ومراكز البيانات ركيزة بنيوية صاعدة في تشكيل أنماط العمل والفاعلية داخل المجتمعات الحديثة. وقد أظهر استطلاع أجرته شركة KPMG بشأن استخدامات الذكاء الاصطناعي أنّ 66% من المشاركين باتوا يعتمدون عليه في مجالي العمل والحياة الشخصية؛ إذ أفاد 38% منهم باستخدامهم اليومي أو الأسبوعي لهذه الأنظمة، بينما أوضح 28% أنهم يلجأون إليها بوتيرة شبه منتظمة بما يكشف مدى تغلغل الذكاء الاصطناعي في الممارسات والسلوكيات الاجتماعية المعاصرة.

 

تشير هذه النتائج إلى أنّ غالبية المستجيبين يعتمدون على الذكاء الاصطناعي في تنفيذ وظائفهم اليومية، سواء ارتبطت بالعمل أو الدراسة أو الاحتياجات الشخصية. علاوة على ذلك، اتّسع نطاق هذا الاعتماد ليشمل الحكومات والأنظمة المالية العالمية والدول، إذ تعتمد هذه الجهات على منظومات الذكاء الاصطناعي لتعزيز كفاءة الخدمات وتسريع وتيرة تقديمها. ويُبرز ذلك كيف غدا الذكاء الاصطناعي جزءًا متجذرًا في النسيج البنيوي للمجتمع العالمي.

 

تخيّل الآن أن تتوقف جميع أنظمة وبرامج الذكاء الاصطناعي عن العمل في يومٍ واحد. ورغم أن احتمالات وقوع مثل هذا السيناريو ضئيلة، فإنه ليس مستحيلًا، كما أن العواقب الناجمة عن الاعتماد المفرط على هذه الأنظمة قد تكون مدمّرة. فحدوث شلل عالمي في الذكاء الاصطناعي سيضرب الاقتصاد العالمي ويزعزع توازن الجغرافيا السياسية، وقد يؤدّي إلى تبخر تريليونات من القيمة السوقية في البورصات، فضلًا عن كوارث خطيرة تطال الأمن الوطني في مختلف أنحاء العالم.

لماذا قد تفشل أنظمة الذكاء الاصطناعي؟

تزداد أنظمة الذكاء الاصطناعي ترابطًا على المستوى العالمي عبر تدفّقات البيانات العابرة للحدود، وهو ترابط يُعدّ ضرورة لتمكين الحكومات والشركات من التعاون دوليًا و”تعزيز الترابط العالمي”. ويمكن لهذا الاتصال بين الأنظمة أن يحقق فوائد واسعة، إذ يتيح للدول العمل المشترك عبر قطاعات متعددة مثل الرعاية الصحية والتمويل والاستدامة. ورغم أنّ الذكاء الاصطناعي يُعدّ إنجازًا تكنولوجيًا لافتًا يمكن دمجه في مختلف مفاصل المجتمع، فإنّ هذه التكنولوجيا ليست بمنأى عن الفشل.

 

يمكن أن ينجم فشل أحد أنظمة الذكاء الاصطناعي عن سوء معالجة البيانات، وهو خللٌ يُفضي بالضرورة إلى مخرجات معيبة تصدرها منظومات الذكاء الاصطناعي وآليات التعلّم. ووفقًا لرامي النائب، رئيس قسم البيانات والذكاء الاصطناعي في شركة Univio، وباول كوزيوليك، الشريك المسؤول عن التسويق في الشركة ذاتها، فإن “85% من مشاريع الذكاء الاصطناعي تفشل… ويُعدّ تدني جودة البيانات العامل الرئيس وراء ذلك… إذ يؤدي استخدام مجموعات بيانات معيبة أو غير مكتملة أو منحازة إلى مخرجات غير موثوقة”. ويمكن أن يفضي الاعتماد على بيانات فاسدة أو ناقصة إلى أعطال خطيرة في أداء أنظمة الذكاء الاصطناعي، بما ينعكس اضطرابًا واسع النطاق على المستوى العالمي.

 

 

علاوة على ذلك، قد تتعرّض أنظمة الذكاء الاصطناعي للفشل نتيجة ما يمكن وصفه بـ”حوادث الذكاء الاصطناعي”. وتنشأ هذه الحوادث عندما يتعرض النظام لمدخلات مفاجئة أو غير مألوفة، بما يُلحق ضررًا بنيويًا بآلية عمله. ويمكن أن تعود هذه الحوادث إلى اختلالات في متانة النظام، أو في دقّة مواصفاته، أو في ضماناته التشغيلية. وعندما تتقاطع هذه الاختلالات مع دمج الذكاء الاصطناعي في أنظمة حيوية، فإنها تُسهم في تضخيم عوامل الخطر التي قد تُفضي إلى فشل النظام، مثل الضغوط التنافسية، وتعقيد البنى النظامية، وضعف تأهيل المشغّلين، وتراجع الأداء نتيجة تعدّد حالات الاستخدام.

السيناريو الأسوأ

يمكن أن يفضي فشلٌ أو توقّفٌ في أنظمة الذكاء الاصطناعي إلى عواقب مدمرة تطال المؤسسات التي تعتمد على هذه الأنظمة في تنفيذ وظائف أساسية. فمع أن تلك المؤسسات توظّف الذكاء الاصطناعي لإزالة أوجه القصور وتعزيز الكفاءة التشغيلية، فإنها قد تفتقر إلى الأدوات الكفيلة بالتخفيف من تداعيات توقّف كارثي. وعليه، يمكن أن يُولّد فشل عالمي في أنظمة الذكاء الاصطناعي صدمات عميقة تمتد عبر طيف واسع من المؤسسات، ولا سيما في قطاعي المصارف والتمويل، وفي شركات التكنولوجيا الكبرى.

 

قد يترتّب على توقّف أنظمة الذكاء الاصطناعي عن العمل تداعيات خطيرة تطال الاقتصاد العالمي، ولا سيما في ظل توجّه عدد كبير من الاقتصادات والصناعات نحو الرقمنة التي تعتمد على هذه الأنظمة لتنفيذ وظائف حيوية بكفاءة عالية. فإذا تعطلت المنظومات المسؤولة عن أداء هذه الوظائف الأساسية، ستقع اضطرابات واسعة في قطاعات اقتصادية متعددة، بما قد يفضي إلى زعزعة استقرار الاقتصادات الحديثة التي تقوم بنيتها التشغيلية على تقنيات الذكاء الاصطناعي.

 

فعلى سبيل المثال، تعتمد المصارف والمؤسسات المالية على الذكاء الاصطناعي بطرق متعدّدة تُسهم في تعزيز كفاءة الخدمات التي تقدّمها. وتشمل هذه الاستخدامات اكتشاف الاحتيال، والتفاعل مع العملاء، وإدارة الثروات، ومعالجة المدفوعات. وفي حال تعرّض أنظمة الذكاء الاصطناعي للفشل، قد تصبح المصارف وعملاؤها أكثر عرضة للأنشطة الاحتيالية، كما قد يُحرم العملاء من القدرة على تنفيذ معاملات أساسية، وهو ما قد يفضي إلى انهيار قطاعات مالية بأكملها.

 

إلى جانب قطاعي المصارف والتمويل، توظّف شركات التكنولوجيا الكبرى—مثل أمازون ومايكروسوفت وميتا وآبل—برامج الذكاء الاصطناعي إمّا لأتمتة خدماتها أو لتعزيز تجربة المستخدم. ويتم ذلك في الأساس من خلال الخدمات السحابية، والخوارزميات المطوّرة لتلبية احتياجات المستخدمين وإدارة المحتوى، فضلًا عن أتمتة إدارة سلاسل الإمداد (كما في حالة أمازون). وقد أسهم هذا التكامل الواسع للذكاء الاصطناعي في منتجاتها وخدماتها في دفع هذه الشركات إلى الاستثمار بكثافة في مجالي الذكاء الاصطناعي والأتمتة.

 

حتى الآن، أنفقت شركات التكنولوجيا الكبرى أكثر من 155 مليار دولار على الاستثمارات في الذكاء الاصطناعي والأتمتة حتى أغسطس 2025، وهو مبلغ يفوق ما أنفقته الحكومة الأمريكية على التعليم والخدمات الاجتماعية، مع توقّعات بارتفاعه في عام 2026. وتشير ليزا إيديسيكو من شبكة “سي إن إن” إلى أن “جوجل تتوقّع إنفاق ما بين 91 و93 مليار دولار في النفقات الرأسمالية لعام 2025، ارتفاعًا من 85 مليار دولار… فيما تتوقّع مايكروسوفت زيادة في الإنفاق بنسبة 74% ليبلغ 34.9 مليار دولار هذا العام، بما يتماشى إلى حدّ كبير مع أكثر من 30 مليار دولار كانت قد توقّعت إنفاقها خلال الربع. وقد أنفقت ميتا نحو 19.37 مليار دولار، ارتفاعًا من 9.2 مليارات دولار قبل عام، وأكثر من 18.4 مليار دولار قدّرها المحلّلون”

 

 

يشير ذلك إلى أنّ الذكاء الاصطناعي والأتمتة يشكّلان مكوّنًا جوهريًا في محفظة الاستثمارات لدى شركات التكنولوجيا الكبرى، من دون أي مؤشرات على تباطؤ هذا التوجّه في المستقبل القريب. ويمكن أن تُسهم الاضطرابات الناجمة عن توقّف أنظمة الذكاء الاصطناعي في دفع الاقتصادات نحو التراجع؛ إذ قد يؤدّي الاستثمار المفرط في الذكاء الاصطناعي والأتمتة من جانب هذه الشركات، بالتوازي مع أي خلل جسيم في أداء الذكاء الاصطناعي، إلى انهيار في أسواق الأسهم. وقد يحدث ذلك نتيجة تركّز السوق في يد الشركات التكنولوجية الكبرى، الأمر الذي، إذا أخفق الذكاء الاصطناعي في الارتقاء إلى مستوى الضجة المحيطة به، قد يفضي إلى تكرار سيناريو انفجار “فقاعة الدوت كوم” أو “فقاعة الإسكان”.

 

وتبرز ملامح هذا الخطر بالفعل، إذ تتكبّد الشركات التكنولوجية—وخاصة العاملة في مجال الذكاء الاصطناعي—خسائر بمليارات الدولارات نتيجة تراجع الجدوى الاقتصادية لأسهم هذا القطاع. ويتجلّى ذلك في تسجيل شركة OpenAI خسائر تُقدَّر بنحو 5 مليارات دولار، وفي خسارة شركة xAI التابعة لإيلون ماسك ما يقارب 13 مليار دولار. وتمثّل هذه المؤشرات، مجتمعة، دلائل متنامية على احتمال انفجار فقاعة الذكاء الاصطناعي في المستقبل. وقد يؤدّي انفجار كهذا إلى محو تريليونات الدولارات من القيمة السوقية في البورصات العالمية.

 

علاوة على ذلك، قد يترتّب على فشل أنظمة الذكاء الاصطناعي تداعيات جيوسياسية متزايدة. فثمة اندماج متسارع للذكاء الاصطناعي في ميدان الجغرافيا السياسية، ولا سيما في مجالي الأمن القومي وإدارة الصراعات. ويشكّل الصراع الدائر في أوكرانيا مثالًا معاصرًا على هذا الاتجاه، حيث تُستخدم منظومات الذكاء الاصطناعي في التصدّي للهجمات الروسية، إلى جانب توظيفها في جمع المعلومات الاستخباراتية ودعم عملية اتخاذ القرار الاستراتيجي.

 

ورغم ما قد تُتيحه أنظمة الذكاء الاصطناعي من مزايا في مجالي الدفاع الوطني والاستراتيجية العسكرية أثناء النزاعات، فإنّ تعطلها أو توقّفها قد يفضي إلى عواقب مدمّرة. وقد برزت خطورة ذلك بوضوح في حرب غزّة، حيث تعرّضت الأنظمة الإسرائيلية المعتمدة على الذكاء الاصطناعي لأعطال أثناء تنفيذ العمليات، الأمر الذي أسهم في ارتفاع أعداد الضحايا المدنيين.

 

ورغم احتمال توقّف أنظمة الذكاء الاصطناعي عن العمل وما قد يخلّفه ذلك من تداعيات على مسار النزاعات، يبرز منظورٌ آخر يتمثّل في خطر تمرّد الذكاء الاصطناعي أثناء الصراع. ولا ينشأ هذا الخطر من الإغلاق أو التوقّف فحسب، بل قد ينتج أيضًا عن انحراف الأهداف أو نزعة السعي إلى النفوذ، بما يدفع النظام إلى التصرّف بصورة مستقلة عن مشغّله. ويمكن لسيناريو كهذا أن يفضي إلى آثار كارثية في البيئات القتالية. وبصورة عامة، وبصرف النظر عن هذا الاحتمال، يمكن القول إنّ أي خلل جوهري أو تعطّل في أداء أنظمة الذكاء الاصطناعي قادرٌ على إرباك العمليات الدفاعية والعسكرية، على نحو قد يفضي إلى ارتفاع عدد الضحايا المدنيين.

 

ورغم احتمالية تعرّض أنظمة الذكاء الاصطناعي للفشل أو التوقّف في المستقبل، فإنّ هناك سُبلًا يمكن للمجتمع الدولي من خلالها الحدّ من تداعيات ذلك على المستوى العالمي. ويتمثّل أحد أهم هذه السُّبل في تطوير منظومة متكاملة لحوكمة الذكاء الاصطناعي. ووفقًا لجورج جور ونيكي إيلياديس من مؤسسة The Future Society، يمكن أن تشمل هذه المنظومة رقابة قانونية، وتعاونًا عابرًا للحدود، وبروتوكولات تشغيلية واضحة، ورصدًا مستمرًا للتطوّرات. ومن شأن بناء إطار حوكمة قوي أن يمكّن البشر من “توجيه أبحاث الذكاء الاصطناعي وتطويره وتطبيقاته بما يضمن السلامة والعدالة واحترام حقوق الإنسان”.

 

ويتمثّل العامل الحاسم في إبقاء الذكاء الاصطناعي ضمن حدود الانضباط في ضمان استمرار الدور البشري داخل منظومة عمل هذه الأنظمة. فالحفاظ على العنصر البشري في تشغيل أنظمة الذكاء الاصطناعي هو الشرط الجوهري الذي يمكّن المجتمعات من تفادي انقطاع عالمي محتمل، قد تترتّب عليه آثار مدمّرة تطال البنى والوظائف الأساسية التي تقوم عليها الحياة الاجتماعية الحديثة.

المراجع

Al Naib, Rami , and Pawel Koziolek. “AI Failures: Learning from Common Mistakes and Ethical Risks.” Univio.com, 2024. https://www.univio.com/blog/the-complex-world-of-ai-failures-when-artificial-intelligence-goes-terribly-wrong/

 

Arnold, Zachary, and Helen Toner. “AI Accidents: An Emerging Threat What Could Happen and What to Do CSET Policy Brief.” Center for Security and Emerging Technology, July 2021. https://cset.georgetown.edu/wp-content/uploads/CSET-AI-Accidents-An-Emerging-Threat.pdf

 

Bratton, Laura. “Big Tech Has to ‘Walk the Line’ with AI Spending This Earnings Season.” Yahoo Finance, October 29, 2025. https://finance.yahoo.com/news/big-tech-has-to-walk-the-line-with-ai-spending-this-earnings-season-151904142.html

 

Chlouverakis, Kostis. “How Artificial Intelligence Is Reshaping the Financial Services Industry.” EY, April 26, 2024. https://www.ey.com/en_gr/insights/financial-services/how-artificial-intelligence-is-reshaping-the-financial-services-industry

 

Cohan, Peter. “AI Bubble May Burst — Wiping out $40 Trillion from Nasdaq. Here’s What to Do.” Forbes, October 15, 2025. https://www.forbes.com/sites/petercohan/2025/10/15/ai-bubble-may-pop—wiping-out-40-trillion-learn-what-could-happen-and-what-to-do/

 

Eadicicco, Lisa. “Big Tech Keeps Splurging on AI. The Pressure Is Ramping up to Show Why.” CNN, October 31, 2025. https://edition.cnn.com/2025/10/31/tech/microsoft-amazon-meta-google-earnings-ai

 

Finio, Matthew, and Amanda Downie. “AI in Banking.” Ibm.com, May 2024. https://www.ibm.com/think/topics/ai-in-banking

 

Future for Advanced Research and Studies. “The Role of Artificial Intelligence in Modern Warfare.” Futureuae. Future for Advanced Research and Studies, May 22, 2024. https://futureuae.com/en-US/Mainpage/Item/9290/militarizing-ai-the-role-of-artificial-intelligence-in-modern-warfare

 

Gillespie, Nicole, Steve Lockey, Alexandria Macdade, Tabi Ward, and Gerard Hassed. “Trust, Attitudes and Use of Artificial Intelligence a Global Study 2025,” 2025. https://doi.org/10.26188/28822919

 

Gor, George, and Niki Iliadis. “What Is an Artificial Intelligence Crisis and What Does It Mean to Prepare for One? – the Future Society %.” The Future Society, May 26, 2025. https://thefuturesociety.org/aicrisisexplainer/

 

Hendrycks, Dan, Thomas Woodside, and Mantas Mazeika. “An Overview of Catastrophic AI Risks,” October 9, 2023. https://arxiv.org/pdf/2306.12001

 

iFOREX. “How Big Tech Companies Combined AI into Their Products in 2024.” Iforex.in, 2024. https://www.iforex.in/ai-and-trading/how-big-tech-companies-combined-ai-into-their-products

 

Jeroudi, Leith. “The Backlash against Military AI: Public Sentiment, Ethical Tensions, and the Future of Autonomous Warfare.” Trendsresearch.org, 2025 https://trendsresearch.org/insight/the-backlash-against-military-ai-public-sentiment-ethical-tensions-and-the-future-of-autonomous-warfare/?srsltid=AfmBOoqpugtrghKP9X5VBPwJK9mSFP5aY9r8nv6y5kYFIboA1BXFpjKn

 

Maguire, Adam. “Bubble Trouble: Is Too Much Being Spent on AI?” RTE.ie, November 8, 2025. urn:epic:1542794.

 

Marr, Bernard. “The Geopolitics of AI.” Forbes, September 19, 2024. https://www.forbes.com/sites/bernardmarr/2024/09/18/the-geopolitics-of-ai/

 

Marwala, Tshilidzi, Eleonore Fournier-Tombs, and Serge Stinckwich. “United Nations University Regulating Cross-Border Data Flows: Harnessing Safe Data Sharing for Global and Inclusive Artificial Intelligence,” October 2023. https://collections.unu.edu/eserv/UNU:9291/UNU-TB_3-2023_Regulating-Cross-Border-Data-Flows.pdf

 

Montgomery, Blake. “Big Tech Has Spent $155bn on AI This Year. It’s about to Spend Hundreds of Billions More.” the Guardian. The Guardian, August 2, 2025. https://www.theguardian.com/technology/2025/aug/02/big-tech-ai-spending

 

Mucci, Tim, and Cole Stryker. “AI Governance.” Ibm.com, October 10, 2024. https://www.ibm.com/think/topics/ai-governance

 

Sonnenfeld, Jeffrey A., and Stephen Henriques. “This Is How the AI Bubble Bursts.” Yale Insights, October 8, 2025. https://insights.som.yale.edu/insights/this-is-how-the-ai-bubble-bursts

تعليقات

أكتب تعليقا

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *