تتزايد مخاوف الحكومات إزاء الصور والمقاطع الصوتية والمرئية التي تبدو شديدة الواقعية رغم كونها مُولَّدة بالذكاء الاصطناعي. فهذه التزييفات العميقة تُسهِم في الانتشار الواسع للمعلومات المضلِّلة، وتُلحق، في بعض الحالات، أضرارًا مباشرة بالأمن الوطني من خلال تقويض ثقة الجمهور بالمؤسسات والعمليات الانتخابية، فضلًا عن تأجيج العنف السياسي. وفي المقابل، يعجز الجمهور العام ومستخدمو المنصات الرقمية عن التمييز بين المحتوى الحقيقي وذلك المُنتَج بواسطة الذكاء الاصطناعي، بما يفضي إلى تفاقم التضليل وتعميق الاستقطاب، وإلى تحويل البيانات الشخصية إلى سلعة تُستثمر تجاريًا من قِبل الشركات التقنية الكبرى. وبناءً على ذلك، فإن التسارع المتزايد في انتشار التزييفات العميقة يفرض ضرورة التحرّك العاجل لتهيئة بيئة تنظيمية قادرة على استيعاب هذا الواقع الجديد وضبط مساراته.
يمثّل الاعتماد على الشركات التقنية في الحد من المعلومات المضلِّلة تحدّيًا بالغ التعقيد، إذ تواجه هذه الشركات صعوبات جوهرية في ضبط محتوى التزييف العميق نظرًا لاتّساع نطاق تداوله وتعدّد الجهات القادرة على إنتاجه. وبالتالي، فإن إقدام شركة واحدة على تنظيم هذا المحتوى سيؤدّي حتمًا إلى تراجع أرباحها، مع انتقال المستخدمين إلى مزوّدين آخرين أقل تقييدًا. يضاف إلى ذلك أنّ هذه الشركات تجني عوائد مالية من عرض الإعلانات، عن غير قصد، على مواقع تنشر معلومات مضلِّلة. ومن ثمّ، تبرز حاجة ملحّة لتدخّل جهة خارجية تمتلك القدرة على فرض الأطر التنظيمية والاستراتيجيات الكفيلة بالحدّ من تفاقم انتشار المعلومات المضلِّلة عبر الفضاء الرقمي.
يُعدّ المحتوى المُنتَج بتقنيات التزييف العميق نتاجًا لخوارزميات متقدّمة تُولِّد مواد تبدو شديدة الواقعية، وتُظهر شخصًا وكأنه أدلى بتصريح أو قام بفعل لم يحدث قط، وغالبًا من دون علمه أو موافقته، الأمر الذي يثير مخاطر قانونية وأمنية بالغة. فعلى سبيل المثال، قد تُنتج تقنيات الذكاء الاصطناعي مقاطع فيديو أو صورًا تُظهر أحد المرشّحين وهو يُدلي بتصريح مُختلَق، أو يؤيّد سياسة مثيرة للجدل، أو يظهر مع شخصية سياسية إشكالية، على نحو قد يُصدّقه الناخبون ويُستغلّ للتأثير في نتائج الانتخابات. ويظهر هذا المحتوى المُضلِّل خلال الحملات الانتخابية بهدف إمّا تعزيز صورة مرشّح معيّن أو تقويضها، بما يعمّق من حالة الاستقطاب ويدفع القواعد الانتخابية إلى التصويت لصالحه أو ضده.
وبالمثل، يُشوِّه التزييف العميق المعلومات المتاحة للعامة والمتعلّقة بعمل الحكومات. فالمحتوى الاصطناعي المُولَّد عبر الذكاء الاصطناعي قد يُحرِّف مستوى الشفافية الحكومية بشأن دوافع اتخاذ قرار معين، بما يدفع المواطنين إلى اتهام الحكومة بالتقصير أو بسوء صناعة القرار. وقد يُبدِّل التزييف العميق خطاب أحد المسؤولين أو يُحرّف سجلًّا حكوميًا بطريقة تُضلِّل فهم الجمهور للقرار وتؤثّر في مستوى دعمه له. ويقوّض ذلك ثقة المواطنين بالحكومة، ويعطّل، في الغالب، عملية صنع القرار، ويُضعِف فعالية السياسات، وقد يفضي إلى اضطرابات اجتماعية، من قبيل اندلاع الاحتجاجات.
وإضافةً إلى ذلك، يتزايد قلق الجمهور إزاء المحتوى الإباحي المُنتَج بتقنيات التزييف العميق عبر الذكاء الاصطناعي. إذ ينتشر هذا النوع من المواد على المواقع الإباحية ومنصّات التواصل الاجتماعي، ويتضمّن في كثير من الحالات استغلالًا للأطفال، بما يثير مخاوف قانونية وأخلاقية خطيرة تتعلّق بانتهاك البيانات الخاصة، وسرقة الهوية، والإنتاج غير القائم على الموافقة، والتشهير. وقد استُخدم هذا المحتوى لاستهداف أفراد عاديين وشخصيات سياسية، وكذلك لأغراض الابتزاز أو الانتقام. وباتت المواقع قادرة اليوم على إعادة توليد صور الأشخاص اعتمادًا على البيانات المخزّنة، إلى حدّ يجعل السيطرة على انتشار هذا المحتوى مهمة بالغة الصعوبة.
يُفضي التطوّر المتسارع لتقنيات التزييف العميق المعتمدة على الذكاء الاصطناعي إلى تفاقم انتشار المعلومات المضلِّلة، بحيث يغدو تهديد الأفراد والحكومات واقعًا جديدًا آخذًا في التشكّل. ويُعدّ القطاع التقني، بوصفه الجهة التي تُنتج المحتوى الرقمي وتراقب تدفّقه، الفاعل الأول المتوقع أن يبحث عن سُبُل التخفيف من هذه المخاطر. غير أنّ الجهود الرامية إلى الحدّ من هذه التهديدات تصطدم بعوائق تتمثّل في ضعف الحوافز لدى الشركات التقنية للتعاون، بفعل الارتباط الهيكلي بين الأرباح وديناميات المعلومات المضلِّلة. ونتيجة لذلك، بات يُنظر إلى صانعي السياسات باعتبارهم الفاعلين الأساسيين المكلَّفين بوضع استراتيجيات إلزامية للحدّ من مخاطر التزييف العميق، مع التكيّف في الوقت ذاته مع هذا الواقع المستجد.
يتزايد التساؤل بشأن العلاقة بين تنظيم الشركات التقنية للمعلومات المضلِّلة وتحقيق الأرباح. فالشركات والمنصّات الرقمية تموّل، من دون قصد، مواقع المحتوى المضلِّل عبر الإعلانات التي تُعرَض عليها. ويعود ذلك إلى استخدام هذه الشركات منصّات الإعلان الرقمي التي توزّع الإعلانات تلقائيًا عبر طيف واسع من المواقع، قد يكون من بينها مواقع تُنتِج معلومات مضلِّلة. ويحقّق كلٌّ من الشركات ومنافذ التضليل أرباحًا كبيرة من هذا النمط، بما يكشف عن ترابط وثيق بين المعلومات المضلِّلة عبر الإنترنت وعائدات الإعلانات، ويُفسّر في الوقت ذاته ضعف الحوافز لدى هذه الشركات للحدّ من التضليل خشية تعريض أرباحها للخسارة.
وإضافةً إلى ذلك، تجني الشركات التقنية أرباحًا كبيرة من الانتشار الفيروسي السريع للمحتوى الزائف، ولا سيّما الشركات التي تتعمّد تداول الأخبار المضلِّلة. فهذه الشركات التي تُدير منصّات التواصل الاجتماعي والمؤسسات الإخبارية، إلى جانب المؤثّرين وقادة الرأي، تعتمد على ارتفاع معدّلات تفاعل المستخدمين بغضّ النظر عن موثوقية المعلومات المقدَّمة. علاوة على ذلك، يُعيد معظم المستخدمين العاديين مشاركة المحتوى الذي يثير اهتمامهم من دون إخضاعه لتقييم نقدي لمستوى صدقيته. وبناءً على ذلك، تتردّد الشركات التقنية في كبح المعلومات المضلِّلة عبر الإنترنت أو توفير آليات فعّالة للتحقّق من الحقائق، إذ تجني أرباحًا مالية مباشرة من انتشار هذا النوع من المحتوى.
ويسلّط منظورٌ آخر الضوء على جانب المنافسة بين المنصّات الرقمية. إذ تختلف سياسات ضبط المحتوى من منصة إلى أخرى، ويرتبط مدى التشديد على الحدّ من المعلومات المضلِّلة بطبيعة المنافسة القائمة بينها؛ ذلك أنّ المستخدمين قد ينتقلون إلى منصة بديلة إذا شعروا بأن قواعد الضبط في المنصة الحالية تُقيّد وصولهم إلى المحتوى أو التعبير عنه، ولا سيما المحتوى أو الأخبار التي يرونها ذات قيمة. وبناءً على ذلك، تُثبِّط المخاطر المالية المتمثّلة في احتمال فقدان المستخدمين هذه المنصّات عن تطبيق سياسات فعّالة لضبط المحتوى.
وبناءً على ذلك، يوضّح الارتباط بين الربحية والمعلومات المضلِّلة سببَ ضعف الحوافز لدى الشركات التقنية والمنصّات الرقمية لاعتماد تنظيمات طوعية تحدّ من انتشار هذا النوع من المحتوى، وهو ما يخلّف فجوة تنظيمية يتعيّن على صانعي السياسات سدّها عبر فرض استراتيجيات مُلزِمة للحدّ من المعلومات المضلِّلة عبر الإنترنت. ومع التسارع الحادّ في تطوّر تقنيات الذكاء الاصطناعي وما يرافقه من إنتاج محتوى زائف باستخدام التزييف العميق نتيجة سوء توظيف هذه التقنيات، تتزايد الحاجة إلى استراتيجيات صارمة يضعها صانعو السياسات لإلزام الشركات التقنية والمنصّات الرقمية باعتماد تلك التغييرات بوصفها شرطًا لمواصلة عملها داخل الدول.
يمتلك صانعو السياسات القدرة على الحدّ من المعلومات المضلِّلة عبر الإنترنت من خلال حزمة من الاستراتيجيات المتداخلة. وتأتي في مقدّمة هذه الإجراءات عمليةُ وضع العلامات على المحتوى المُنتَج بتقنيات التزييف العميق، بما يضمن مستوى أعلى من الشفافية؛ إذ تُلزَم المنصّات الرقمية باستخدام علامات مائية أو وسوم رقمية تُظهر بوضوح أي تعديلات أو تغييرات تركيبية أُدخلت على المحتوى الأصلي. وعند اكتشاف محتوى مُولَّد بالذكاء الاصطناعي من دون وسم تعريفي، يتعيّن على الشركات التقنية ومنصّات التواصل الاجتماعي الإبلاغ عنه وإزالته. وإلى جانب ذلك، يمكن اعتماد برامج شفافية إلزامية لمنصّات الإعلان الرقمي تُلزمها بتصنيف مواقع المحتوى المضلِّل وتمكين المعلنين من اختيار المواقع التي يرغبون في نشر إعلاناتهم فيها، بما يعزّز مسؤوليتهم في ضبط مسارات ظهور المحتوى الإعلاني.
ثانيًا، تقوم منصّات التواصل الاجتماعي والمواقع الإلكترونية بمعالجة البيانات الشخصية بهدف تحسين تجربة المستخدم، غير أنّ تفاقم ظاهرة التزييف العميق عبر الاستخدام غير المصرَّح به لهذه البيانات، إلى جانب بيع الشركات لهذه المعلومات لأطراف ثالثة، يجعل تدخّل صانعي السياسات ضرورة لحماية الخصوصية الفردية. وبموجب ذلك، ستلتزم الشركات التقنية بعرض وثيقة مبسّطة لسياسات الخصوصية، خالية من اللغة القانونية والتقنية المعقّدة، وواضحة بما يكفي ليتمكّن الجمهور العام من تقديم موافقة مستنيرة، بدلًا من الوثائق المطوَّلة والمثقلة بالمصطلحات المتخصّصة. وإلى جانب ذلك، تبرز الحاجة إلى جعل جمع البيانات خيارًا طوعيًا، ومنح الأذونات قدرًا أعلى من المرونة، بحيث توفّر المنصّات للمستخدمين آلية بسيطة تُمكّنهم من إيقاف جمع بياناتهم في أي وقت.
ثالثًا، تُوجَد فجوة قانونية ملحّة في معالجة الجرائم المرتبطة بالتزييف العميق، تتخلّلها ثغرات تتيح للشركات التقنية والمنصّات الرقمية مجالات واسعة للاستغلال. ويستدعي ذلك سنّ تشريعات جديدة تُعالج المعلومات المضلِّلة بصورة مباشرة، وتقدّم تعريفات واضحة ودقيقة للتزييف العميق، والبيانات الشخصية، والموافقة المُولَّدة اصطناعيًا، والتشهير. وفي الوقت نفسه، ينبغي أن تتركّز التعديلات على القوانين الوطنية القائمة، بحيث تُدرج فيها أحكام مُخصّصة للحدّ من الانتهاكات الناشئة عن محتوى التزييف العميق، بما في ذلك توسيع نطاق قوانين التشهير والخصوصية والملكية الفكرية. وبوجه عام، يظلّ التحديث المنتظم للإطار القانوني ضرورة لا غنى عنها، إذ إن القوانين الحالية ستصبح حتمًا متقادمة وعاجزة عن مواكبة التطوّر المتسارع لتقنيات الذكاء الاصطناعي.
رابعًا، تُثير القدرة المتنامية للأفراد على إنتاج محتوى مُقنِع باستخدام تقنيات التزييف العميق تحدّيًا متصاعدًا أمام الأنظمة القضائية في الكشف عن المحتوى الزائف. ومن ثمّ، يُعدّ التعاون بين الحكومات والشركات التقنية في تطوير استراتيجيات أمن سيبراني قادرة على رصد التزييفات العميقة الأكثر تعقيدًا خطوة بالغة الأهمية. وانطلاقًا من مبدأ “التسليح من أجل الدفاع”، يمكن للمتخصصين إنشاء نماذج تجريبية من التزييف العميق لدراسة سُبل اكتشافها وفهم آليات التزييف العميق المعتمدة على الذكاء الاصطناعي، بما يتيح تطوير أدوات أكثر دقّة للكشف عنها مستقبلًا. وقد يمتدّ نطاق هذا التعاون ليشمل وضع إرشادات واضحة وتدابير للمساءلة تنظّم استخدام تقنيات الذكاء الاصطناعي في كشف المعلومات المضلِّلة وإزالة المحتوى الزائف والمواقع المُنشأة باستخدام التزييف العميق.
أخيرًا، يمكن للحكومات إطلاق حملات توعوية عبر القنوات الإعلامية ومنصّات التواصل الاجتماعي لتعزيز الثقافة الرقمية لدى الجمهور وترسيخ السلوك الرقمي المسؤول، وذلك من خلال الترويج للأدوات والأساليب التي تُمكّن من كشف الأخبار الزائفة. كما يمكن دمج برامج التربية الإعلامية ضمن المنظومة التعليمية الوطنية وفي مبادرات منظمات المجتمع المدني الموجّهة للشباب والطلاب. ويسهم تعزيز الوعي بأهمية التحقّق من المعلومات قبل تداولها أو تصديقها في كبح الانتشار السريع للمحتوى الزائف، ولا سيّما عندما يتعلّق الأمر بشخصيات عامة بارزة أو خلال الفترات الحسّاسة التي تمرّ بها الدول.
ختامًا، يتسارع انتشار المحتوى المُولَّد بالذكاء الاصطناعي، مُسهِمًا في تفاقم المعلومات المضلِّلة عبر الإنترنت على نحو يهدّد الحكومات والجمهور على حدّ سواء. وفي الوقت نفسه، تواجه الشركات التقنية تحدّيات متصاعدة في التصدي للتزييفات العميقة في ظلّ المنافسة الشرسة فيما بينها، إذ تخشى خسارة مستخدميها، فضلًا عن المشكلات البنيوية في منظومة الإعلانات الآلية، وهو ما يعمّق الارتباط بين الربحية وديناميات المعلومات المضلِّلة. وأمام هذا الواقع الجديد الذي يصعب تجاهله، كما يصعب كبح التطورات التكنولوجية الحتمية، يغدو تدخّل الهيئات التنظيمية المسار الأنسب لتهيئة بيئة أكثر قدرة على الصمود أمام التحوّلات الرقمية. وينبغي لصانعي السياسات إدراك أنّ التطبيق الفعّال لاستراتيجيات الحماية يتطلّب تنسيقًا دوليًا يضمن تكامل الأطر القانونية والأخلاقية عبر مختلف النظم الرقمية.
Ahmad, Wajeeha, et al. (2024). Companies inadvertently fund online misinformation despite consumer backlash. Nature 630: 123–131. https://doi.org/10.1038/s41586-024-07404-1
Electronic Privacy Information Center (EPIC). “Social Media Privacy.” Accessed November 18, 2025. https://epic.org/issues/consumer-privacy/social-media-privacy/
Furizal, et al. (2025). “Social, legal, and ethical implications of AI-Generated deepfake pornography on digital platforms: A systematic literature review.” Social Sciences & Humanities Open 12:1-25. https://doi.org/10.1016/j.ssaho.2025.101882
Hanlon, Annmarie, and Karen Jones. (2023). “Ethical concerns about social media privacy policies: do usershave the ability to comprehend their consent actions?.” Journal of Strategic Marketing 1-18. https://doi.org/10.1080/0965254X.2023.2232817
Hogan, Megan. Replicating Reality: Advantages and Limitations of Weaponized Deepfake Technology. Brief No. 12.4, PIPS (Project on International Peace & Security), Global Research Institute, College of William & Mary, April 2020. https://www.wm.edu/offices/global-research/research/pips/white_papers/2019-2020/hogan-final.pdf
Hynek, Nik, et al. (2025). Risks and benefits of artificial intelligence deepfakes: Systematic review and comparison of public attitudes in seven European Countries. Journal of Innovation & Knowledge, 10(5):1-19. https://doi.org/10.1016/j.jik.2025.100782
Krasadakis, George. “Fake News and Misinformation: How digital tech can help.” The Innovation Mode. October 28, 2025, Accessed November 18, 2025. https://www.theinnovationmode.com/the-innovation-blog/misinformation-online-a-solution-powered-by-state-of-the-art-tech
Osano. “Data Privacy Laws: What You Need to Know in 2025.” September 26, 2025, Accessed November 18, 2025. https://www.osano.com/articles/data-privacy-laws#:~:text=The%20CDPA%20requires%20companies%20covered,data%20processing%2C%20among%20other%20requirements.
S. Vishnu. Deceptive realities: Deepfakes and the battle for privacy. (2023). ICREP Journal of Interdisciplinary Studies, 2(2). http://dx.doi.org/10.2139/ssrn.5073233
Sasaki, So, and Cedric Langbort. (2024). Misinformation Regulation in the Presence of Competition Between Social Media Platforms. IEEE Transactions on Control of Network Systems 12(1): 1080-1090. https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=10607922
Sciences Po. “Combating Misinformation on Social Media.” Understanding Our Times. February 26, 2025. https://www.calameo.com/sciencespo/read/004160454741ba87f6772
Taylor, Josh. “Tech companies consider giving up efforts to combat misinformation online in Australia.” The Guardian. October 1, 2025, Accessed November 17, 2025. https://www.theguardian.com/media/2025/oct/01/tech-companies-consider-giving-up-efforts-to-combat-misinformation-online-in-australia
Wang, Xinzhi. (2025). The Impact of Deepfake on Government Transparency from a Policy Perspective. Modern Economics & Management Forum, 6(2): 145-149. https://en.front-sci.com/index.php/memf/article/view/3805/4110
Weiner, Daniel I. and Lawrence Norden. “Regulating AI Deepfakes and Synthetic Media in the Political Arena.” Brennan Center for Justice. December 5, 2023, Accessed November 6, 2025. https://www.brennancenter.org/our-work/research-reports/regulating-ai-deepfakes-and-synthetic-media-political-arena
Villasenor, John. “Artificial intelligence, deepfakes, and the uncertain future of truth.” Brookings. February 14, 2019, Accessed November 03, 2025. https://www.brookings.edu/articles/artificial-intelligence-deepfakes-and-the-uncertain-future-of-truth/#:~:text=Deepfakes%20are%20videos%20that%20have,real%20and%20what%20is%20not.
تعليقات