الذكاء الاصطناعي

الذكاء الاصطناعي يقاتل في الشرق الأوسط: انقسام وادي السيليكون يمتد إلى ساحات الحرب

🗓️ 5 مارس، 2026 ✍️ فريق أخبار تك 8 دقائق للقراءة

“أخبار تك”

من وادي السيليكون إلى سماء طهران

بينما كان قادة شركات الذكاء الاصطناعي في أمريكا يتجادلون حول البنود الأخلاقية في عقود البنتاغون، كانت صواريخ “توماهوك” السوداء تحلق في سماء طهران. وفي غضون ساعات قليلة من أوائل الأسبوع الماضي، شهد العالم حدثين متوازيين: انقسام أخلاقي حاد في وادي السيليكون بين شركتي OpenAI وAnthropic، وأول حرب كبرى تُدار بتقنيات الذكاء الاصطناعي في الشرق الأوسط.

المفارقة الصادمة أن نموذج Claude من شركة Anthropic، التي رفضت التعاون العسكري مع البنتاغون، كان أحد الأدوات التي استخدمتها القيادة المركزية الأمريكية في التخطيط للضربات على إيران . بينما كانت OpenAI تبرم صفقات مع حلف الناتو وتتفاوض لنشر تقنياتها على شبكاته غير المصنفة .

هذا التداخل المذهل بين الأخلاق والتكنولوجيا والحرب يطرح أسئلة وجودية: هل يمكن للذكاء الاصطناعي أن يظل محايداً في زمن الصراعات؟ ومن يتحمل المسؤولية عندما تتحول الخوارزميات إلى قنابل؟

الانقسام الأخلاقي – قصة شركتين وطريقين مختلفين

المشهد من واشنطن

في أواخر فبراير 2026، وصل الخلاف بين شركة Anthropic ووزارة الدفاع الأمريكية إلى ذروته. الرئيس التنفيذي للشركة داريو أمودي تلقى إنذاراً نهائياً من البنتاغون: إما إزالة الضمانات التي تمنع استخدام تقنية Claude في المراقبة الجماعية المحلية وتطوير الأسلحة الذاتية، أو مواجهة عواقب وخيمة تشمل إنهاء العقود وتصنيف الشركة كـ”خطر على سلسلة التوريد” .

أمودي رد في تدوينة مطولة يوم 26 فبراير: “لا يمكننا بضمير حي أن نذعن لطلب البنتاغون” . وأضاف أن الوزارة هددت باستخدام قانون الإنتاج الدفاعي لفرض إزالة الضمانات قسراً، وهو ما وصفه بالتناقض الصارخ: “تصنيفنا كخطر أمني من جهة، واعتبار تقنيتنا ضرورية للأمن القومي من جهة أخرى” .

البنتاغون يرد: “أي استخدام قانوني”

من جانبه، أصدر المتحدث باسم البنتاغون شون بارنيل بياناً قال فيه إن الوزارة “ليس لديها أي مصلحة في استخدام الذكاء الاصطناعي للمراقبة الجماعية للأمريكيين (وهو أمر غير قانوني)، ولا نريد استخدام الذكاء الاصطناعي لتطوير أسلحة ذاتية تعمل دون تدخل بشري” . لكنه أضاف: “كل ما نطلبه هو السماح لنا باستخدام نموذج Anthropic لجميع الأغراض القانونية” .

الإنذار كان واضحاً: المهلة تنتهي في 27 فبراير الساعة 5:01 مساءً. وإما الامتثال، أو إنهاء الشراكة وتصنيف الشركة كخطر على سلسلة التوريد .

ترامب يتدخل: “طرد” أنثروبيك

قبل ساعات قليلة من الضربات على إيران في 28 فبراير، أعلن الرئيس الأمريكي دونالد ترامب قراراً مفاجئاً: “طرد” شركة Anthropic من جميع العقود الحكومية، ووصفها بأنها “شركة يسارية متطرفة للذكاء الاصطناعي، موظفوها لا يعرفون شيئاً عن العالم الحقيقي” . وأمر جميع الوكالات الفيدرالية بالتحول عن التعامل معها خلال ستة أشهر .

طلب غير مسبوق على مهارات الذكاء الاصطناعي في كندا

وزير الدفاع بيت هيغسيث كتب في منشور مطول على منصة إكس: “أنثروبيك متعجرفة وغادرة… محاربونا الأمريكيون لن يكونوا رهينة لأيديولوجيات شركات التكنولوجيا الكبرى” .

OpenAI تتحرك بسرعة: “القرار الصحيح رغم العواقب”

في المقابل، تحركت OpenAI بسرعة لملء الفراغ. بعد أيام قليلة من إنهاء التعاقد مع Anthropic، أعلنت الشركة عن صفقة لنشر تقنياتها على شبكات البنتاغون المصنفة . ثم كشفت تقارير أن الشركة تدرس أيضاً التعاقد مع حلف شمال الأطلسي (الناتو) لنشر تقنياتها على شبكاته .

سام ألتمان، الرئيس التنفيذي لـ OpenAI، اعترف في اجتماع داخلي للشركة أن هذه الخطوة ستكون لها “عواقب صعبة على العلامة التجارية وعلاقات عامة سلبية للغاية على المدى القصير” . لكنه أصر على أنها “قرار معقد ولكنه صحيح” .

في بيان محدث، أكدت OpenAI أن أنظمتها “لن تُستخدم عمداً للمراقبة المحلية للأمريكيين والمواطنين”، وأضافت أن البنتاغون أكد أيضاً أن خدماتها لن تُستخدم من قبل وكالات استخبارات مثل NSA .

سخرية القدر: تصريحات متناقضة

المفارقة أن وزير الدفاع هيغسيث كان قد كتب في منشور سابق على إكس قبل يوم واحد من الضربات: “لن نسمح أبداً للذكاء الاصطناعي باتخاذ قرارات القتل. هذا القرار سيظل دائماً بيد الإنسان” . لكن ما حدث بعد 24 ساعة فقط جعل هذه الكلمات تبدو وكأنها من زمن آخر.

الذكاء الاصطناعي في ساحة المعرضة – قصة Claude في ضرب إيران

كيف خطط الذكاء الاصطناعي للضربات

بعد ساعات فقط من إعلان الحكومة الأمريكية إنهاء تعاقدها مع Anthropic وتصنيفها كـ”خطر أمني”، كانت القيادة المركزية الأمريكية (CENTCOM) تستخدم نموذج Claude في التخطيط للضربات على إيران .

صحيفة وول ستريت جورنال كشفت أن الجيش استخدم Claude في “تقييمات استخباراتية، وتحديد الأهداف، ومحاكاة سيناريوهات المعركة” . وبحسب مصادر مطلعة، فإن القيادات العسكرية حول العالم، بما فيها القيادة المركزية، تستخدم Claude في مهام حساسة .

“النافذة الزمنية” – عندما حددت الخوارزميات موعد القتل

قبل يوم واحد من الضربات، أجرت صحيفة جيروزاليم بوست اختباراً مثيراً: سألت أربعة من أشهر نماذج الذكاء الاصطناعي عن موعد الهجوم المحتمل على إيران . النتائج كانت مذهلة:

النموذجالتوقع
Claude (Anthropic)7-8 مارس
Gemini (جوجل)4-6 مارس
ChatGPT (OpenAI)3-4 مارس
Grok (xAI)28 فبراير (الأكثر دقة)

نماذج الذكاء الاصطناعي، التي تدربت على أنماط الصراعات السابقة والتحركات العسكرية والتصريحات السياسية، استطاعت أن تحصر “نافذة الخطر” بدقة مذهلة. Grok وحده أصاب اليوم بالكامل .

الاستخبارات: مزيج من البشر والخوارزميات

صحيفة نيويورك تايمز كشفت تفاصيل إضافية عن العملية :

  • وكالة المخابرات المركزية (CIA) كانت تتعقب موقع المرشد الأعلى علي خامنئي “لأشهر”، واكتسبت ثقة متزايدة حول أنماط تحركاته.
  • تم اكتشاف أن اجتماعاً قيادياً رفيعاً سيعقد صباح السبت في مجمع حكومي وسط طهران، وأن خامنئي سيكون حاضراً.
  • المعلومات وُصفت بأنها ذات “دقة عالية” (High Fidelity).
  • تم تغيير توقيت الهجوم من الليل إلى النهار للاستفادة من هذه النافذة الزمنية .

أسلحة ذكية: “صواريخ تفكر” و”مسيّرات تتواصل”

الضربات نفسها استخدمت أسلحة تعتمد بشكل كبير على الذكاء الاصطناعي :

  • صواريخ “توماهوك” السوداء (Black Tomahawk): جيل جديد من الصواريخ المجنحة.
  • مسيّرات “لوكاس” (LUCAS): طائرات انتحارية تعمل بالذكاء الاصطناعي، مستوحاة من مسيّرات “شاهد” الإيرانية، بتكلفة إنتاج 35 ألف دولار فقط، ومدى يتجاوز 700 كم .
  • صواريخ “كاسر الجليد” (Ice Breaker): صواريخ إسرائيلية تدمج خوارزميات الذكاء الاصطناعي، قادرة على “التفكير مثل الإنسان”، وتحديد مسارها، وتمييز الأهداف الحقيقية من المزيفة، وحتى “التواصل” مع الصواريخ الأخرى .

بيتر أسارو، أستاذ مساعد في كلية الإعلام الجديد وأحد مؤسسي اللجنة الدولية لمكافحة الأسلحة الذاتية، علق قائلاً: “كل هذه الأنظمة مصممة لاتخاذ قرارات أسرع من العدو. لكن السؤال الحقيقي: هل ما زلت تتحكم فيما يحدث؟” .

سؤال المسؤولية – من يتحمل عندما تخطئ الخوارزمية؟

مأساة مدرسة ميناب

خلال الضربات، تعرضت مدرسة ابتدائية للبنات في مدينة ميناب بمحافظة هرمزغان جنوب إيران للقصف، مما أدى إلى مقتل أكثر من 50 طالبة وإصابة العشرات .

هذه الحادثة تطرح السؤال الأكثر إلحاحاً في عصر الحروب الذكية: إذا كان الذكاء الاصطناعي هو من حدد الهدف، وركز عليه، وساعد في توجيه الصاروخ، فمن يتحمل مسؤولية قتل الأطفال؟

طوكيو تستهدف ريادة “الذكاء الفيزيائي” بمضاعفة إنتاج الرقاقات 5 مرات

أسارو: لا توجد إجابات جاهزة

بيتر أسارو يوضح أن المشكلة أعمق من مجرد تحديد المسؤول :

  • سرعة التصنيف: العمليات الآلية تنتج قوائم أهداف أسرع بكثير من البشر. لكن السؤال: “إلى أي مدى راجع البشر هذه القوائم قبل التصديق عليها؟”
  • التحقق من الشرعية: هل تم التحقق من أن كل هدف في القائمة هو هدف عسكري مشروع؟ أم أن السرعة ضربت بالدقة عرض الحائط؟
  • تقييم المخرجات: لا توجد طريقة بسيطة لتقييم مخرجات هذه الأنظمة، أو تحديد سبب الخطأ عند حدوثه.
  • المسؤولية القانونية: “إذا حدث خطأ، من يتحمل؟ من الناحية القانونية، كيف نحدد ذلك؟ أين الحدود الأخلاقية؟” .

95% نحو الحرب النووية

محاكاة أجرتها كلية كينغز كوليدج لندن باستخدام نماذج لغوية كبيرة كشفت عن نتائج مرعبة :

  • 95% من السيناريوهات انتهت بنشر أسلحة نووية تكتيكية.
  • 86% من الصراعات شهدت تصعيداً غير متوقع.
  • السبب: أعطال تقنية أو أخطاء في التواصل جعلت النماذج تتصرف بشكل يتجاوز التوقعات.

الذكاء الاصطناعي لا يخاف. وهذا يجعله خطراً استثنائياً في سياق الردع النووي. عندما تصبح الأسلحة النووية مجرد “أدوات لعبة” في محاكاة باردة، ينهار كل منطق الردع الذي قامت عليه الحرب الباردة.

دروس من التاريخ – عندما تتعاون التكنولوجيا مع الموت

من IBM إلى OpenAI

في تقرير سابق نشرته “أخبار تك” أشارت فيه إلى إن الانقسام الحالي يذكرنا بالجدل الذي أحاط بشركات كبرى في الماضي:

  • IBM في ثلاثينيات وأربعينيات القرن الماضي زودت ألمانيا النازية بأنظمة حاسوبية لتصنيف المناهضين للنازية في التعداد السكاني، وهو ما سهل لاحقاً عملية “الحل النهائي”.
  • I.G. Farben الألمانية صنعت غاز “Zyklon B” المستخدم في معسكرات الإبادة.
  • شركات التكنولوجيا اليوم تواجه أسئلة مشابهة: هل تزويد الجيوش بأنظمة ذكاء اصطناعي يختلف عن تزويدهم بغاز سام؟

الفرق اليوم أن التقنيات أكثر تقدماً، والتأثير أكثر عمقاً، والأسئلة الأخلاقية أكثر تعقيداً.

خط أحمر أم خط أعمال؟

داريو أمودي، رئيس Anthropic، وضع خطوطاً حمراء واضحة: لا للمراقبة الجماعية المحلية، ولا للأسلحة الذاتية .

سام ألتمان، رئيس OpenAI، اختار طريقاً مختلفاً: التعاون مع البنتاغون والناتو، مع ضمانات محدودة تمنع الاستخدامات الأسوأ .

كلا الخيارين له ثمن:

  • Anthropic تخسر عقوداً حكومية بمئات الملايين، وتواجه تصنيفاً كـ”خطر أمني” .
  • OpenAI تواجه غضب موظفيها ومستخدميها، وإلغاء اشتراكات، وانتقادات حادة .

هل هناك طريق ثالث؟

المفارقة أن نموذج Claude، الذي رفضت شركته التعاون العسكري، استُخدم في النهاية في الحرب على إيران . هذا يثير سؤالاً أعمق: هل يمكن لأي تقنية متقدمة، بمجرد وجودها، أن تظل بعيدة عن متناول الجيوش؟

بيتر أسارو يعتقد أن الحل ليس في رفض التعاون، بل في “قواعد دولية ملزمة” تحكم استخدام الذكاء الاصطناعي في النزاعات المسلحة . ويشير إلى أن الأمم المتحدة ومنظمات دولية بدأت في مناقشة هذه القضايا، لكن الطريق لا يزال طويلاً.

متابعات فريق أخبار تك