كتب بواسطة

في معظم التاريخ الحديث، استندت النُّظم السياسية إلى افتراضٍ محوري مفاده أن الإنسان، لا الإقليم ولا السلطة ولا مفاهيم التقدّم المجرّدة، يمثّل نقطة الارتكاز الأساسية في الحوكمة. فقد جرى تبرير القوانين والاقتصادات والمؤسسات، نظريًا على الأقل، بوظيفتها في حماية الحياة البشرية، وتنظيم الصراع، وتحسين الرفاه الجماعي عبر الزمن. وحتى حين طُبِّق هذا المبدأ على نحو غير متكافئ، فقد شكّل إطارًا معياريًا قيّد ممارسة السلطة، وربط الشرعية السياسية—ولو بصورة جزئية—بالاستجابة للحاجات الإنسانية وبمبدأ الرضا العام. غير أنّ هذا التصوّر الإنساني للحوكمة يشهد تحوّلات متسارعة في ظلّ التقدّم التكنولوجي، ولا سيّما مع صعود فاعلين تقنيين بات لهم تأثير متزايد في أنماط الإنتاج واتخاذ القرار، وهو ما يطرح تساؤلات جديدة حول العلاقة بين السلطة، والتكنولوجيا، وأسس العقد الاجتماعي في السياق المعاصر.

 

اليوم، يشهد هذا الافتراض تآكلًا متسارعًا في ضوء تحوّلات عميقة تقودها التطوّرات التكنولوجية. فقد برزت، خلال السنوات الأخيرة، فئة محدودة من الفاعلين في قطاع التكنولوجيا تتبنّى تصوّرات تُعيد النظر في مركزية الإنسان ضمن مسارات التقدّم، وتتعامل مع التجربة الإنسانية بوصفها مرحلة قابلة لإعادة التعريف في سياق تطوّر تقني أوسع. ولم تعد هذه الرؤى حكرًا على النقاشات الفلسفية النظرية، بل بدأت تنعكس عمليًا في كيفية تصميم أنظمة الذكاء الاصطناعي، وتنظيم أسواق العمل، وتفسير التفاوتات الاقتصادية، وصياغة تصوّرات طويلة الأمد حول ممارسة السلطة السياسية. وفي هذا الإطار، لا يقتصر الأمر على اختلافٍ فكري أو جدلٍ نظري، بل يتجلّى بوصفه تحوّلًا مؤسسيًا آخذًا في التشكّل، تُتَّخذ في ظله قرارات ذات أثر واسع على المجتمعات والاقتصادات، استنادًا إلى رؤى وتقديرات لم تخضع بالضرورة لمسارات تفويض ديمقراطي تقليدية.

مستقبل تتراجع فيه مركزية الإنسان

لفهم التداعيات السياسية لهذا التحوّل، لا بدّ أولًا من تفكيك الرؤية الفكرية التي تقوده. إذ يتبنّى عدد من قادة التكنولوجيا الأكثر تأثيرًا اليوم تصوّرات للمستقبل تُعيد النظر في مركزية الإنسان البيولوجي ضمن مسارات التقدّم. وفي هذا السياق، يطرح إيلون ماسك تصوّرًا يقوم على ضرورة توسّع البشرية خارج كوكب الأرض لتفادي مخاطر الانقراض، مقدّمًا استعمار الفضاء بوصفه خيارًا طويل الأمد يرتبط باستمرارية الذكاء أكثر مما يرتبط بالاعتبارات الآنية للبشر القائمين. وتعكس هذه المقاربة منظورًا مستقبليًا يمنح أولوية للبقاء الكلّي للذكاء على حساب الاحتياجات المباشرة للإنسان في الحاضر.

 

ولا يقتصر هذا التوجّه على حالة فردية بعينها. فقد عبّر “بيتر ثيل”، أحد أبرز الفاعلين المؤثّرين في وادي السيليكون، عن مواقف نقدية تجاه العلاقة بين الديمقراطية والتقدّم التكنولوجي، مشكّكًا في مدى قابليتهما للتوافق على المدى الطويل. وفي هذا السياق، طرح “ثيل” تصوّرات بديلة للحوكمة تتجاوز الأطر الديمقراطية التقليدية، من بينها نماذج تقوم على المدن الخاصة، أو الاستيطان خارج الأرض، أو تسريع التطوّر التكنولوجي بوصفه مسارًا للتغيير. كما تعكس بعض هذه الطروحات ميلًا إلى إعادة تقييم أنماط تنظيم اجتماعي أكثر هرمية، في مقابل النموذج الديمقراطي السائد.

 

للوهلة الأولى، قد يبدو التركيز على البقاء طويل الأمد والتقدّم الموجَّه نحو المستقبل طرحًا بديهيًا، إذ نادرًا ما يُجادَل في أهمية مراعاة حقوق الأجيال القادمة. غير أنّ هذا التأطير ينطوي، في العمق، على إعادة ترتيب ضمني للأولويات الأخلاقية. فعندما يُمنَح الحفاظ على الذكاء في أفق زمني بعيد موقع الصدارة، يمكن أن تُعاد قراءة المعاناة الراهنة بوصفها تكلفة مؤقّتة في مسار أطول. وفي هذا السياق، قد تُدرَج أضرار بيئية، أو اختلالات في علاقات العمل، أو حالات من عدم الاستقرار السياسي ضمن منطق الموازنة بين الحاضر والمستقبل. وعمليًا، يتيح هذا المنظور لبعض الفاعلين التقليل من شأن الآثار الفورية لقراراتهم، مع تقديمها بوصفها جزءًا من رؤية أوسع تُبرَّر باسم مسؤولية طويلة الأمد تجاه مسار الإنسانية.

 

وبالمثل، يبرز في خطاب قادة قطاع الذكاء الاصطناعي تصوّرٌ لمستقبل يُتوقَّع فيه أن تتفوّق الأنظمة الآلية على البشر في طيفٍ واسع من المجالات. ففي هذا السياق، حذّر سام ألتمان من أنّ أنظمة الذكاء الاصطناعي القادمة قد تتحوّل إلى «أقوى تكنولوجيا ابتكرتها البشرية على الإطلاق»، مع التأكيد في الوقت نفسه على ضرورة مواصلة تطويرها بوتيرة متسارعة. ويعكس هذا الطرح افتراضًا ضمنيًا مفاده أنّ ظهور هذه الأنظمة مسارٌ لا مفرّ منه، وأنّ إبطاء تقدّمها قد ينطوي على مخاطر تفوق تلك المرتبطة بتسريعها. وفي ضوء هذا المنطق، يُعاد توجيه النقاشات والسياسات العامة نحو الاستعداد لمخاطر مستقبلية فائقة، بدلاً من التركيز على التداعيات الاجتماعية والاقتصادية الراهنة التي ترافق انتشار هذه التقنيات. وبهذا، تصبح إدارة سيناريوهات مستقبلية افتراضية أولوية سياسية، فيما تتراجع معالجة الأضرار الحالية إلى مرتبة ثانوية ضمن جدول الاهتمامات العامة.

 

ضمن هذا الإطار، لم يعد الإنسان يُعامَل بوصفه الغاية المركزية للحوكمة، بل يُعاد إدراجه ضمن مسار تكنولوجي أطول يُنظر إليه باعتباره عملية تراكمية تتجاوز اللحظة البشرية الراهنة. ونتيجةً لذلك، تتراجع أولوية الاعتبارات الديمقراطية المرتبطة بالحماية الاجتماعية، والرفاه، والمساءلة، لصالح مقاربات تُبرِّر التكاليف الاجتماعية بوصفها جزءًا من تقدّم تقني أشمل. ولا يقتصر هذا التحوّل على مستوى التصوّر النظري، بل ينعكس عمليًا في الكيفية التي تُصاغ بها أطر حوكمة التقنيات الناشئة، وتُحدَّد من خلالها قواعد التنظيم والانتشار. وفي هذا السياق، تُوجَّه السياسات العامة بصورة متزايدة نحو إدارة المخاطر المستقبلية المحتملة، فيما تُهمَّش معالجة الآثار الاجتماعية المباشرة التي تُنتجها هذه التقنيات في الحاضر.

 

في الولايات المتحدة والمملكة المتحدة وأجزاء من أوروبا، بات تنظيم الذكاء الاصطناعي يميل بصورة متزايدة إلى إعطاء أولوية لمخاطر افتراضية مستقبلية على حساب الأضرار القائمة فعليًا. إذ يكرّس صانعو السياسات اهتمامًا واسعًا لسيناريوهات تفترض خروج الأنظمة المتقدّمة عن السيطرة البشرية، في حين يُوجَّه قدر أقلّ بكثير من الجهد إلى معالجة قضايا قائمة مثل توسّع المراقبة الرقمية، وأتمتة العمل، والتمييز الخوارزمي، وهي ممارسات تُؤثّر بالفعل في حياة ملايين الأفراد وتعيد تشكيل علاقات القوة داخل المجتمعات المعاصرة.

 

ونتيجةً لذلك، تميل الأطر التنظيمية في كثير من السياقات إلى التركيز على ما قد يصبح عليه الذكاء الاصطناعي مستقبلًا، أكثر من انشغالها بتداعياته الراهنة. ويعكس هذا النهج حضور سرديات صناعية ترى أنّ المخاطر المستقبلية ذات طابع وجودي، في حين تُقدَّم الآثار الحالية بوصفها قابلة للإدارة ضمن الأطر القائمة. غير أنّ هذا التأطير ينسجم، في الوقت نفسه، مع حوافز اقتصادية قائمة؛ إذ يسمح باستمرار نشر أنظمة تُعيد تشكيل أسواق العمل، وتوسّع نطاق جمع البيانات، وتُسهم في تركيز النفوذ، مع تقديم ذلك ضمن خطاب مسؤولية يركّز على الوقاية من سيناريوهات بعيدة المدى أكثر مما يعالج التحوّلات الجارية في الحاضر.

 

وفضلًا عن ذلك، تُسهم هياكل الحوكمة المؤسسية في ترسيخ هذا الاختلال على نحوٍ بنيوي. فشركات مثل OpenAI تواصل تقديم نفسها بوصفها جهات تعمل لصالح المصلحة الإنسانية العامة، غير أنّ تطوّرات داخلية حديثة تشير إلى تنامي تأثير الاعتبارات التجارية في توجيه مسارات إنتاج المعرفة وتداولها. وفي هذا السياق، أُثيرت تساؤلات بعد استقالة عدد من الباحثين الذين أفادوا بأنّ الشركة أصبحت أكثر تحفّظًا إزاء نشر دراسات تتناول الآثار الاقتصادية السلبية المحتملة لتقنيات الذكاء الاصطناعي. ويعكس ذلك توتّرًا متزايدًا بين الخطاب المعلن حول المنفعة العامة، والضغوط السوقية التي تؤثّر في أولويات البحث والنشر.

 

وفي الوقت نفسه، كشفت مذكّرات داخلية أعلنت حالة «إنذار مؤسسي» مرتبطة بحماية الموقع التنافسي لـChatGPT، بوصفه أحد المنتجات المركزية، عن شدّة الضغوط السوقية التي تعمل في ظلّها OpenAI. وتُظهر هذه الوقائع كيف تصبح الاعتبارات الأخلاقية أكثر التصاقًا بالظروف التشغيلية عندما تتقاطع مع متطلّبات التوسّع السريع، وتسريع وتيرة الابتكار، والحفاظ على الحصص السوقية في بيئة تتّسم بمستويات عالية من التنافس.

 

وفي هذا السياق، لا تؤدّي هياكل الحوكمة دائمًا وظيفة كبح النفوذ أو تنظيمه على نحوٍ مستقل، بل قد تتكيّف أحيانًا بما يضمن استمرارية النمو وتعزيز القدرة التنافسية. ويكشف هذا التكيّف عن توتّرٍ بنيوي بين الخطاب المعلن حول خدمة الصالح العام، وبين الأولويات العملية التي تفرضها ديناميات السباق التكنولوجي وتركيز مراكز القرار في أيدي عدد محدود من الفاعلين.

 

وإلى جانب ذلك، تُظهر الشركات العاملة عند تقاطع الذكاء الاصطناعي والدفاع والمراقبة كيف ينعكس التفكير ما بعد الإنساني على ممارسات سلطة الدولة ذاتها. ففي هذا السياق، تُقدّم Palantir، التي تعتمد وكالات عسكرية وأمنية على برمجياتها على نطاق واسع، دورها ضمن سردية ترتبط بحماية النظام الغربي وقيمه الاستراتيجية. وقد عبّر رئيسها التنفيذي، أليكس كارب، عن تصوّرات ترى في العنف المنظَّم عنصرًا بنيويًا في تشكيل النظام الدولي، مشيرًا إلى أنّ القيود الدستورية والتنظيمية المفروضة على إدارة النزاعات العسكرية تُسهم في توسيع الطلب على حلول تكنولوجية أكثر تقدّمًا. وفي هذا الإطار، يُعاد تأطير التطوّر التقني بوصفه وسيلة لتعزيز الدقّة والكفاءة في استخدام القوة، بما يستدعي أنظمة تحليلية وخوارزمية متقدّمة قادرة على العمل ضمن أطر قانونية معقّدة. ويعكس هذا المسار تداخُلًا متناميًا بين المنطق الأمني، والاعتبارات التكنولوجية، والمصالح الاقتصادية، على نحوٍ يُعيد رسم العلاقة بين الدولة، واستخدام العنف المنظَّم، ودور الفاعلين التقنيين في توجيه أدوات القوة الحديثة.

 

في هذا السياق، تشهد السلطة السياسية تحوّلًا تدريجيًا من المؤسسات المنتخبة إلى المنصّات الخاصة والبنى التحتية التي تديرها الشركات التكنولوجية. فقد باتت الحكومات تعتمد على نحوٍ متزايد على هذه الجهات في مجالات حيوية، من تحليل البيانات الضخمة والمراقبة، إلى دعم عمليات اتخاذ القرار في المجالين الأمني والعسكري. ومع ترسّخ هذه الأنظمة داخل أجهزة الدولة، لا تقتصر وظيفتها على تقديم أدوات تقنية محايدة، بل تبدأ في إعادة تشكيل كيفية تعريف التهديدات، وتوجيه أولويات تخصيص الموارد، وتحديد أنماط استخدام القوة. وتغدو آثار هذا التحوّل أكثر عمقًا على الحوكمة الديمقراطية عندما يستند مصمّمو هذه الأنظمة إلى تصوّرات فكرية تُقلّل من مركزية الإنسان، وتتعامل مع التجربة الإنسانية بوصفها مرحلة انتقالية ضمن مسار تكنولوجي أطول.

 

وعلاوةً على ذلك، تكشف البنية التحتية الفضائية عن ملامح هذا التحوّل على نحوٍ متزايد. فقد باتت شركات خاصة، مثل SpaceX التابعة لـ”إيلون ماسك”، تتحكّم في شبكات أقمار صناعية تُعدّ أساسية للاتصالات والملاحة والتنسيق العسكري. وعلى خلاف التقنيات الفضائية السابقة، لا تخضع هذه الأنظمة بالقدر نفسه للأطر التعاهدية الدولية، بل تتأثّر عمليًا بتفضيلات استراتيجية لعدد محدود من الفاعلين. ومع إعطاء أولوية لمشاريع مستقبلية تتجاوز كوكب الأرض، تُعاد صياغة أنماط الحوكمة الكوكبية بما ينسجم مع طموحات تكنولوجية بعيدة المدى، أكثر من تركيزها على متطلبات الأمن الإنساني الراهن.

تآكل الشرعية الديمقراطية

يُفضي الأثر التراكمي لهذه التحوّلات إلى أزمة شرعية آخذة في التبلور. فالنُّظم الديمقراطية تقوم، في جوهرها، على مبدأ أنّ السلطة السياسية تستمدّ مشروعيتها من رضا المحكومين وخضوعها للمساءلة العامة. غير أنّ عددًا متزايدًا من القرارات ذات الأثر العميق—ولا سيّما في مجالات الذكاء الاصطناعي، والهندسة الحيوية، والبنية التحتية الفضائية—بات يُتَّخذ خارج قنوات المشاركة الديمقراطية التقليدية، ومن دون نقاش عام فعّال. وتزداد الإشكالية حدّة حين تستند هذه القرارات إلى افتراضات فكرية وقيمية لا تنسجم بالضرورة مع المبادئ التي قامت عليها المجتمعات الديمقراطية، بما يعمّق الفجوة بين مراكز صنع القرار والإرادة العامة.

 

تتجلّى هذه الأزمة بوضوح عند النظر في الفئات التي تتراجع أولوياتها ضمن هذا المسار. فالعمّال الخاضعون لإدارة خوارزمية يواجهون تقلّصًا في هامش الاستقلالية وتوسّعًا في أنماط المراقبة. وفي الوقت نفسه، يتعرّض مراقبو المحتوى—الذين يتمركز كثير منهم في الجنوب العالمي—لأعباء نفسية جسيمة في سياق «تدريب» أنظمة يُراد لها أن تكون أكثر أمانًا لمستخدمين في مناطق أخرى. كما تواجه مجتمعات تُستهدف بأدوات الشرطة التنبؤية مستويات متزايدة من التدقيق والتمييز، بما يعكس اختلالًا واضحًا في توزيع الأعباء والمخاطر الناتجة عن انتشار هذه التقنيات.

ومع ذلك، يظلّ الخطاب السياسي مهيمنًا عليه إلى حدٍّ كبير تصوّر سيناريوهات مستقبلية قصوى، من قبيل ذكاء اصطناعي خارج عن السيطرة أو انهيارات حضارية بعيدة المدى. ويُسهم هذا الاختلال في إعادة توجيه النقاش العام، بما يتيح للفاعلين المؤسسيين هامشًا أوسع لتأجيل المساءلة عن الأضرار القائمة. فعند طرح أدلّة على آثار سلبية حاضرة، يجري في كثير من الأحيان إحالة النقاش إلى الجهود المبذولة للحيلولة دون مخاطر افتراضية أعظم في المستقبل، بدلًا من معالجة التداعيات الفعلية الجارية.

 

وينسحب هذا النمط التحليلي ذاته على الأبعاد البيئية للتحوّل التكنولوجي. إذ تفرض أنظمة الذكاء الاصطناعي واسعة النطاق طلبًا متزايدًا على الطاقة والموارد المائية، بما يُسهم في رفع مستويات الانبعاثات وتعميق الضغوط البيئية. وفي مواجهة هذه الانتقادات، يُروَّج غالبًا لفكرة مفادها أنّ تقنيات الذكاء الاصطناعي المتقدّمة قد توفّر، مستقبلًا، أدوات لمعالجة أزمة المناخ. غير أنّ هذا التأطير يعيد توصيف الأضرار البيئية القائمة بوصفها تكلفة مؤقّتة في مسار تقدّم تقني أطول، ويؤدّي عمليًا إلى نقل عبء المخاطر البيئية إلى مجتمعات تُسهم بأقلّ قدر في التلوّث، ولا تحصد في المقابل سوى فوائد محدودة من النمو التكنولوجي المتسارع.

 

كما تمتدّ انعكاسات هذه الرؤية إلى مجال حوكمة الإنجاب. فمع تطوّر تقنيات تتيح مستويات متزايدة من التحكّم في الإنجاب وفي السمات الجينية، يجري في بعض الأوساط التقنية تأطير التكاثر البشري ضمن منطق التحسين والكفاءة. ورغم أنّ هذه النقاشات تُقدَّم غالبًا بلغة ترتبط بالصحة والتقدّم العلمي، فإنّها تحمل في طيّاتها مخاطر بنيوية، أبرزها تعميق اللامساواة الاجتماعية عبر إتاحة تقنيات التعزيز لفئات قادرة ماليًا دون غيرها. وفي هذا الإطار، لا يُنظر إلى التنوّع البشري بوصفه حقيقة اجتماعية ينبغي صونها، بل يُعاد تعريفه أحيانًا كمصدر نقص أو خلل يتطلّب المعالجة، بما يعكس تحوّلًا مقلقًا في معايير القيمة الإنسانية وحدود الحماية الأخلاقية.

 

وفضلًا عن ذلك، تشهد اللامساواة ذاتها إعادة تأويل تدريجية في ظل هذا الإطار الفكري. فعندما يُقدَّم الحفاظ على الذكاء المستقبلي والتقدّم بعيد المدى بوصفه الغاية العليا، يتراجع الاهتمام بالرفاه الإنساني الآني، وتُعاد صياغة الفوارق في الثروة والنفوذ باعتبارها تكاليف أو استثمارات لا مفرّ منها في مسار حضاري أطول. ويظهر هذا المنطق في مواقف ارتبطت بـ إيلون ماسك، سواء في التقليل من الكلفة البشرية المصاحبة لاستخراج الليثيوم، أو في محدودية ترجمة التعهّدات المتعلّقة بمعالجة الجوع العالمي إلى التزامات عملية مستدامة. وضمن هذا السرد، تُهمَّش المعاناة المباشرة لأنها لا تنسجم مع رواية تقدّم مؤجَّل، يُبرَّر فيه الحاضر بما يُفترَض أن يحمله المستقبل من وعود، حتى وإن ظلّت هذه الوعود غير مؤكّدة أو غير موزَّعة بعدالة.

 

ومجتمعةً، تُسهم هذه الاتجاهات في تقويض الأسس الأخلاقية التي يستند إليها الحكم الديمقراطي. إذ يجد المواطنون أنفسهم خاضعين، على نحوٍ متزايد، لمنظومات حوكمة صُمِّمت وفق منظومات قيمية لم يشاركوا في صياغتها، وتستشرف مستقبلًا قد لا يكونون جزءًا فاعلًا منه. وفي ظل هذا التحوّل، تميل المشاركة السياسية إلى التآكل لتغدو أقرب إلى ممارسة رمزية، بينما تنتقل مراكز السلطة الفعلية تدريجيًا نحو نخب تكنولوجية تقدّم نفسها بوصفها الأقدر على استشراف مسار الذكاء والتقدّم، متجاوزة بذلك آليات التفويض والمساءلة التي تقوم عليها الديمقراطيات الحديثة.

 

وعليه، يتمثّل التحدّي المركزي أمام المجتمعات الديمقراطية في مدى استعدادها لمساءلة الافتراضات الفكرية والقيمية التي تُعيد تشكيل مستقبلها التكنولوجي. فإذا استمرّت أنماط الحوكمة في الانطلاق من تصوّرٍ يُدرِج الإنسان بوصفه مرحلة انتقالية ضمن مسار تقني أطول، فإنّ العقد الاجتماعي يُخاطَر بإعادة صياغته على نحوٍ متسارع ومن دون تفويضٍ ديمقراطي صريح. أمّا إذا أصرت هذه المجتمعات على أن تكون التكنولوجيا أداةً في خدمة البشر الأحياء، لا بديلًا عنهم أو متجاوزةً لهم، فلا يزال بالإمكان إعادة توجيه المسار السياسي والمؤسسي. وفي المحصّلة، لا يتمحور الصراع حول مواجهة بين الإنسان والآلة، بقدر ما يدور حول التباين بين منطق المساءلة الديمقراطية، ومستقبلٍ يتشكّل بصورة متزايدة تحت تأثير تفضيلات فاعلين تقنيين غير منتخبين يملكون نفوذًا واسعًا على مسارات التقدّم والقرار.

 

المراجع

Friend, Celeste. 2023. “Social Contract Theory.” Internet Encyclopedia of Philosophy. 2023. https://iep.utm.edu/soc-cont/.

 

Henwood, Doug . 2025. “Tech Capitalists Don’t Care about Humans. Literally.” Jacobin.com. November 15, 2025. https://jacobin.com/2025/11/musk-thiel-altman-ai-tescrealism/.

 

Jin, Berber. 2025. “OpenAI Declares ‘Code Red’ as Google Threatens AI Lead.” The Wall Street Journal. December 2, 2025. https://www.wsj.com/tech/ai/openais-altman-declares-code-red-to-improve-chatgpt-as-google-threatens-ai-lead-7faf5ea6.

 

Landymore, Frank. 2025a. “CEO of Palantir Says He Spends a Large Amount of Time Talking to Nazis.” Futurism. November 14, 2025. https://futurism.com/future-society/palantir-ceo-talks-to-nazis.

 

———. 2025b. “OpenAI Researcher Quits, Saying Company Is Hiding the Truth.” Futurism. December 12, 2025. https://futurism.com/artificial-intelligence/openai-researcher-quits-hiding-truth.

 

Mac, Ryan. 2025. “Elon Musk’s SpaceX Valued at $800 Billion, as It Prepares to Go Public.” The New York Times, December 13, 2025. https://www.nytimes.com/2025/12/12/technology/elon-musk-spacex-ipo.html?utm_social_post_id=621512503&smtyp=cur&smid=tw-nytimes&utm_social_handle_id=807095.

 

O’Sullivan, James. 2025. “The Politics of Superintelligence.” NOEMA. December 9, 2025. https://www.noemamag.com/the-politics-of-superintelligence/.

 

Rochester, Rachel. 2022. “Musk’s ‘Longtermism’ Philosophy & How It Drives Space Exploration.” ScreenRant. Screen Rant. August 11, 2022. https://screenrant.com/elon-musk-longtermism-philosophy-explained/.

 

Torres, Émile P. 2023a. “AI and the Threat of ‘Human Extinction’: What Are the Tech-Bros Worried About? It’s Not You and Me.” Salon. June 11, 2023. https://www.salon.com/2023/06/11/ai-and-the-of-human-extinction-what-are-the-tech-bros-worried-about-its-not-you-and-me/.

 

———. 2023b. “TESCREALism: The Acronym behind Our Wildest AI Dreams and Nightmares.” Truthdig. June 15, 2023. https://www.truthdig.com/articles/the-acronym-behind-our-wildest-ai-dreams-and-nightmares/.

 

Yildirim, Ece. 2025. “Palantir CEO Says Making War Crimes Constitutional Would Be Good for Business.” Gizmodo. December 3, 2025. https://gizmodo.com/palantir-ceo-says-making-war-crimes-constitutional-would-be-good-for-business-2000695162.

تعليقات

أكتب تعليقا

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *