الذكاء الاصطناعي

حين تتجاوز الخوارزميات حدود التحكم.. هل أصبح الذكاء الاصطناعي تهديداً يفوق السلاح النووي؟

14 أبريل، 2026 فريق أخبار تك 5 دقائق للقراءة

واشنطن – أخبار تك

بينما لا يزال العالم يترقب مخاطر السباق النووي التقليدي، برز في الأفق تحذير جديد يهز أركان الأمن العالمي: الذكاء الاصطناعي.

لم يعد الحديث مجرد تخيلات سينمائية، بل تقارير ودراسات جادة صدرت خلال الأشهر الأولى من عام 2026، يضع فيها خبراء الأمن الدولي الذكاء الاصطناعي على قائمة التهديدات الوجودية، بل وقد يصفونه بأنه “أكثر فتكاً” من الترسانات النووية ذاتها.

عندما تتحول الخوارزميات إلى “صانعة حرب”

يشير مراقبون إلى أن البشرية تقف اليوم على عتبة “عصر ذري رقمي”، لكن الفرق هذه المرة أن الخطر لا يأتي من رؤوس حربية، بل من شفرات برمجية.

فمع تسابق القوى الكبرى – الولايات المتحدة، الصين، روسيا – لدمج الذكاء الاصطناعي في أنظمتها العسكرية، يخشى محللون من أن يتحول مبدأ “التدمير المتبادل المؤكد” الذي حفظ التوازن خلال الحرب الباردة، إلى سيناريو أكثر رعباً: “تدمير متبادل آلي”، حيث تُدار الصراعات بسرعة الآلة، بعيداً عن التروي والحكمة البشرية.

دراسة صادمة: الذكاء الاصطناعي لا يتردد في التهديد النووي

في مارس 2026، نشرت كلية كينغز كوليدج بلندن دراسة أثارت جدلاً واسعاً، بعد أن كشفت أن نماذج الذكاء الاصطناعي تظهر ميلاً أكبر لاستخدام التهديد النووي مقارنة بالبشر.

خلال محاكاة 21 سيناريو لأزمات دولية، لجأت هذه النماذج إلى التهديد باستخدام الأسلحة النووية في 95% من الحالات.

والأكثر إثارة للقلق، أن النماذج التي شملتها الدراسة – مثل إصدارات متقدمة من أنظمة الذكاء الاصطناعي التوليدي – تعاملت مع الخيار النووي كـ”أداة استراتيجية مشروعة”، متجاهلة ما عُرف تاريخياً بـ”المحرم النووي”، أي الخط الأحمر الأخلاقي الذي التزمت به الدول منذ منتصف القرن الماضي. وفي جميع السيناريوهات، لم تقدم أي من هذه النماذج على التنازل أو الاستسلام، بل فضلت التصعيد حتى لو كان الثمن دماراً شاملاً.

كابوس سيبراني: عندما تخترق الخوارزميات أنظمة التحكم النووية

تخيل لحظة تتعطل فيها أنظمة الإنذار المبكر النووية بسبب هجوم إلكتروني ذكي.. أو تُحقن ببيانات مزيفة توحي بوقوع هجوم وشيك. هذا ليس مشهداً من فيلم خيال علمي، بل هاجساً حقيقياً يقلق خبراء الأمن السيبراني حول العالم.

فوفقاً لتقرير مسرب من وكالة الأمن القومي الأمريكية (نُشرت مقتطفات منه في فبراير 2026)، فإن تقنيات الذكاء الاصطناعي “المضاد” قادرة على استغلال ثغرات خفية في أنظمة القيادة والتحكم النووية، دون الحاجة إلى اختراق مادي. ويمكن للمهاجمين، وفق الخبراء، تحقيق أهداف استراتيجية من خلال:

  • التلاعب ببيانات الرادارات وأجهزة الاستشعار لإيهام القادة بوقوع هجوم.
  • تعطيل البروتوكولات الأمنية المصممة لمنع الإطلاق غير المصرح به.
  • استخدام التهديد بالتحكم عن بُعد في الترسانات النووية كأداة ابتزاز جيوسياسي.

ويحذر معهد أبحاث السلام في ستوكهولم من أن هذه التقنيات لم تعد حكراً على الدول الكبرى، بل أصبحت في متناول جماعات ودول أصغر بفضل انتشار النماذج مفتوحة المصدر، مع توقعات بأن تتضاعف القدرات الهجومية المعتمدة على الذكاء الاصطناعي ثلاث مرات بحلول نهاية 2026.

لماذا يتفوق الذكاء الاصطناعي في الخطورة على السلاح النووي؟

يرى محللون أن سباق تسلح الذكاء الاصطناعي يحمل سمات تجعله أكثر خطورة من سباق التسلح التقليدي:

  • السرعة القاتلة: قرارات تُتخذ في أجزاء من الثانية، تاركة هامشاً ضئيلاً للتدخل البشري أو التصحيح الدبلوماسي.
  • الانتشار الواسع: على عكس التكنولوجيا النووية المعقدة والمكلفة، فإن أدوات الذكاء الاصطناعي متاحة على نطاق أوسع، مما يوسع دائرة من يملك القدرة على إحداث فوضى عالمية.
  • عدم القدرة على التنبؤ: حتى أكثر النماذج تطوراً معرضة لأخطاء غير متوقعة أو “هلوسات”، وإدماجها في أنظمة حساسة قد يحول خطأً برمجياً بسيطاً إلى كارثة إنسانية.
  • ثغرات تاريخية: كثير من الأنظمة النووية الحالية صُممت قبل عقود، ولم تُهيأ لمواجهة هجمات سيبرانية ذكية قادرة على التكيف في الوقت الفعلي.

ساعة القيامة تقترب: 85 ثانية تفصلنا عن الكارثة

في يناير 2026، حركت مجلة “النشرة العلمية لعلماء الذرة” عقارب “ساعة القيامة” الرمزية إلى 85 ثانية قبل منتصف الليل، وهو أقرب وقت للكارثة في تاريخ الساعة الذي يمتد لعقود. وأرجع الخبراء هذا التحرك الخطير إلى عوامل متعددة، كان أبرزها الدور التخريبي للذكاء الاصطناعي، خاصة مع غياب أطر دولية ملزمة لتنظيم استخدامه في المجالات العسكرية.

سباق عالمي بلا ضوابط.. ومستقبل غامض

تتصدر الولايات المتحدة المشهد باستثمارات تتجاوز 13 مليار دولار في الأنظمة العسكرية المستقلة. وفي الوقت ذاته، تعمل الصين على تطوير وحدات قتالية آلية بالكامل، بينما تسعى روسيا لأتمتة جزء كبير من قدراتها الدفاعية.

ورغم صدور قرار عن الأمم المتحدة في ديسمبر 2025 يحث على إبقاء السيطرة البشرية على الأسلحة النووية، فإن الدول النووية الخمس الكبرى إما عارضته أو امتنعت عن التصويت، مما يعكس غياب الإرادة السياسية لمواجهة هذا التهديد المتصاعد.

الخلاصة: خطر مزدوج يتطلب وعياً إنسانياً

لا يكمن التهديد الأكبر في قدرة الذكاء الاصطناعي على شن حرب بمفرده، بل في قدرته على دفع البشر نحو حافة الهاوية – أو الأسوأ، اتخاذ قرارات مصيرية نيابة عنهم. ومع ضغط الوقت في ساحات المعركة الحديثة، قد يجد القادة أنفسهم معتمدين على توصيات الخوارزميات، في حلقة مفرغة من التصعيد قد تنتهي بما لا يحمد عقباه.

اليوم، لم تعد المعادلة بسيطة: لم يعد الصراع بين جيوش بشرية، بل قد يصبح “خوارزمية ضد خوارزمية”، في مواجهة قد لا يبقى بعدها من يروي القصة. والسؤال الذي يفرض نفسه: هل نمتلك الحكمة الجماعية لوضع حدود إنسانية لهذا السباق، قبل فوات الأوان؟

المصادر: كلية كينغز كوليدج بلندن، وكالة الأمن القومي الأمريكية، معهد أبحاث السلام في ستوكهولم (SIPRI)، مجلة “النشرة العلمية لعلماء الذرة”، تقارير أممية وإعلامية موثقة.