الذكاء الاصطناعي
كيف أصبح الذكاء الاصطناعي سلاحاً فتاكا في المعارك
تقرير فريق أخبار تك
في 28 فبراير 2026، انطلقت عملية “الغضب الملحمي” (Operation Epic Fury)، لتكون أول حرب كبرى في التاريخ تُدار بالذكاء الاصطناعي من أول طلقة .
لم تكن الصواريخ فقط هي التي تحدد مسار المعركة، بل كانت الخوارزميات تحدد الأهداف، والوكلاء الأذكياء يحللون الاستخبارات، والصور المولدة بالذكاء الاصطناعي تغزو شاشات العالم في ثوانٍ.
هذه الحرب، التي دخلت شهرها الثاني، لم تعد تقتصر على الجبهات التقليدية. هي حرب تُخاض على جبهتين متوازيتين: الأولى في سماء طهران و تل ابيب وبعض دول المنطقة ، والثانية في فضاء وسائل التواصل، حيث تتنافس الروايات وتتصارع السرديات، وتتحول الحقيقة إلى سلاح نادر.
في هذا التقرير من اخبار تك نرصد كيف يستخدم الذكاء الاصطناعي كسلاح في الحرب الدائرة، من غرف العمليات الاستخباراتية إلى منصات التواصل الاجتماعي، وكيف أصبحت الخوارزميات جزءاً لا يتجزأ من الصراع، بل أحياناً محركاً أساسياً له.
الذكاء الاصطناعي على جبهة الاستهداف
نظام “مافن” و”كلود”: العقل المدبر للضربات
بحسب تقارير موثقة من صحيفة واشنطن بوست ووكالة رويترز، استخدمت القيادة المركزية الأميركية (CENTCOM) نظام “مافن سمارت” (Maven Smart System) من شركة بالانتير (Palantir) خلال الضربات الأولى على إيران . النظام، الذي يدمج نموذج الذكاء الاصطناعي “كلود” (Claude) من شركة أنثروبيك (Anthropic)، يقوم بتحليل كميات هائلة من بيانات الاستخبارات (صور الأقمار الصناعية، اعتراضات الاتصالات، معلومات العملاء) لتقديم قوائم أولويات استهداف في ثوانٍ .
الأرقام صادمة: في الساعات الـ24 الأولى من الحرب، تم تحديد أكثر من 1000 هدف في إيران باستخدام هذه الأنظمة . ما كان يحتاج في السابق إلى آلاف المحللين وأسابيع من العمل، أصبح يُنجز في ساعات، بل دقائق. الجنرال براد كوبر، قائد القيادة المركزية الأميركية، قال إن الهدف هو تمكين القادة من اتخاذ “قرارات أذكى وأسرع مما يمكن للعدو أن يتفاعل” .
“التحيز الآلي” (Automation Bias) وخطر الكارثة الإنسانية
لكن هذه السرعة الهائلة تأتي مع مخاطر كبيرة. تقارير متطابقة من صحيفة الغارديان ونيويورك تايمز أشارت إلى أن اعتماد الجيش الإسرائيلي على نظام “الخزامى” (Lavender) في حرب غزة أدى إلى استهداف آلاف الأهداف دون تدقيق بشري كافٍ، مما أسفر عن سقوط آلاف الضحايا المدنيين . في الحرب الحالية، تتزايد المخاوف من تكرار السيناريو نفسه.
مأساة مدرسة ميناب: في 1 مارس، استهدف قصف صاروخي مدرسة ابتدائية للبنات في مدينة ميناب جنوب إيران، مما أسفر عن مقتل أكثر من 170 شخصاً، معظمهم من الأطفال . تقارير استخباراتية تشير إلى أن المدرسة كانت تقع بالقرب من منشأة للحرس الثوري، وأن بيانات استخباراتية قديمة (تعود إلى 2016) ربما استخدمت في التخطيط للضربة، مما يشير إلى خطأ في نظام الاستهداف المدعوم بالذكاء الاصطناعي [مقاطع سابقة من المحادثة].
الخبراء يحذرون مما يسمى “التحيز الآلي” (Automation Bias)، حيث يميل الضباط إلى الوثوق بمخرجات الذكاء الاصطناعي دون تدقيق كافٍ. أحد الضباط الإسرائيليين الذين تحدثوا إلى صحيفة الغارديان قال إنه كان يستغرق 20 ثانية فقط لتأكيد هدف قبل الموافقة على قصفه .
الجبهة الأخرى – حرب السرديات بالذكاء الاصطناعي
50% من المحتوى المضلل خلال الحرب كان مولّداً بالذكاء الاصطناعي
بينما تخوض الطائرات الحربية معاركها في سماء المنطقة، تدور معركة أخرى لا تقل شراسة في فضاء وسائل التواصل. تحليل أجراه فريق ويب كيوف (WebQoof) التابع لموقع “ذا كوينت” (The Quint) كشف أن نصف المحتوى المضلل (حوالي 50%) الذي تم تداوله خلال الحرب كان فيديوهات وصوراً مولدة بالذكاء الاصطناعي .
أمثلة صادمة:
- فيديو تل أبيب المدمرة: مقطع فيديو مدته 10 ثوانٍ يظهر ناطحات سحاب تل أبيب وهي تنهار تحت وابل من الصواريخ. حصد الملايين من المشاهدات، وتم تداوله على أنه هجوم إيراني حقيقي. تبين لاحقاً أنه مولّد بالذكاء الاصطناعي .
- صورة خامنئي تحت الأنقاض: صورة مزعومة للمرشد الأعلى الإيراني علي خامنئي وهو يُنتشل من تحت الأنقاض بعد الضربات الأميركية. أظهرت تحليلات أدوات كشف الذكاء الاصطناعي (مثل Hive Moderation) أن الصورة 90% مولّدة بالذكاء الاصطناعي .
- برج خليفة يحترق: مقطع فيديو لبرج خليفة في دبي وهو يشتعل، حصد أكثر من 2 مليون مشاهدة على منصة إكس، ورغم أنه يحمل علامات واضحة على أنه مولّد بالذكاء الاصطناعي، إلا أنه استمر في الانتشار دون تصحيح .
- طائرة B-2 في سماء إيران: قناة تلفزيونية إسرائيلية بثت لقطات زعمت أنها لطائرة B-2 أميركية تحلق فوق إيران. تبين لاحقاً أن المقطع مأخوذ من لعبة المحاكاة الحربية DCS World .
“الوهم الإيراني” و”التأييد الهندي” المزيف
لم تقتصر التضليل على مشاهد القصف فقط. شبكات منظمة من الحسابات الموالية لإيران أنشأت آلاف الحسابات الوهمية التي تنتحل هويات غربية (بريطانية وإيرلندية) لنشر دعاية موالية لطهران . في المقابل، تم تداول مقاطع فيديو مزيفة لرئيس الوزراء الهندي ناريندرا مودي ووزير دفاعه راجناث سينغ، تظهرهما وهما يعبران عن دعمهما لإسرائيل، في محاولة لجر الهند إلى الصراع .
الغريب: حتى الشخصيات الإعلامية لم تسلم. تم تداول فيديو مزيف (Deepfake) للصحفية الهندية الشهيرة بالخي شارما، زعم أنها تعلن عن اعتقال عميل إسرائيلي في البحرين .
اقتصاد التضليل – لماذا تنتشر الأكاذيب أسرع من الحقيقة؟
4-6 دولارات لكل ألف مشاهدة
ما يحدث ليس مجرد عمليات دعائية منظمة. هناك صناعة كاملة قائمة على التضليل. بحسب تقرير لمنظمة ذا نيو هيومانيتيريان (The New Humanitarian)، فإن منشئي المحتوى على منصات مثل فيسبوك يمكنهم تحقيق أرباح تتراوح بين 4 و6 دولارات لكل ألف مشاهدة . في الهند، حيث متوسط الأجر الشهري 180-228 دولاراً، يمكن لمنشئ محتوى واحد أن يجني مئات بل آلاف الدولارات شهرياً من مقاطع فيديو مولدة بالذكاء الاصطناعي تصور مشاهد درامية للحرب .
الحلقة المفرغة: المنصات تكافئ المحتوى عالي التفاعل. المحتوى العاطفي (خاصة الغضب والخوف) يحقق تفاعلاً أعلى. الذكاء الاصطناعي يسهل إنتاج هذا المحتوى بكميات هائلة. والنتيجة هي فيض من المعلومات المضللة التي تسبق أي محاولة للتحقق.
محاولات المنصات للرد: عقوبات “إكس” ونظام “العلامات المائية”
في 4 مارس، أعلنت منصة إكس (تويتر سابقاً) عن سياسة جديدة: حرمان المستخدمين الذين ينشرون فيديوهات مولدة بالذكاء الاصطناعي عن صراعات مسلحة دون الإفصاح عن مصدرها من عائدات المشاركة في الإيرادات لمدة 90 يوماً .
لكن فعالية هذه السياسة لا تزال موضع شك. بحسب معهد “الاستراتيجي للحوار” (ISD)، فإن معظم منشئي المحتوى المضلل ليسوا أعضاء في برنامج مشاركة الإيرادات أصلاً . كما أن العلامات المائية (Watermarking) التي تضعها بعض المنصات على المحتوى المولد يمكن إزالتها بسهولة قبل إعادة النشر .
التحدي الأكبر – هل يمكن الوثوق بأي شيء نراه؟
“من يتحقق من الحقائق” في زمن الفوضى؟
في 10 مارس، أعلنت هيئة الإذاعة الألمانية ZDF عن فصل مراسلها في نيويورك بعد أن تبين أن تقريراً لها عن عمليات ترحيل المهاجرين احتوى على لقطات مولدة بالذكاء الاصطناعي، وكانت علامة “سورا” (Sora) واضحة في زاوية الفيديو .
هذه الحادثة كشفت عن مشكلة أعمق: حتى المؤسسات الإعلامية الكبرى لم تعد محصنة ضد هذا النوع من التضليل. في بيئة تتصدر فيها السرعة قيم التحرير، يمكن للفيديو المزيف أن يتسلل إلى النشرات الإخبارية قبل أن يتمكن أي فريق تدقيق من كشفه.
أدوات الكشف: بين الفعالية والفشل
يعتمد الصحفيون والمحققون اليوم على أدوات مثل Hive Moderation وDeepfake-O-Meter وSynthID (من جوجل) للكشف عن المحتوى المولد بالذكاء الاصطناعي . لكن هذه الأدوات تعاني من مشكلات كبيرة:
- الانحياز: تعكس تحيزات بيانات التدريب.
- اللغة والثقافة: تفشل في فهم السياقات المحلية واللهجات.
- سهولة التضليل: يمكن للمحتوى المعدل طفيفاً أن يخدع الأداة.
دراسة للباحثة دورصاف سلامي من جامعة مونتريال أكدت أن هذه الأدوات فعالة في البيئات المختبرية، لكنها تفشل في الميدان الحقيقي بسبب تعقيد السياقات وتنوع اللغات .
خلاصة: في زمن الحرب، من يملك الحقيقة؟
ما نشهده في الحرب الدائرة ليس مجرد استخدام جديد للتكنولوجيا. إنه تحول في طبيعة الحرب ذاتها. الذكاء الاصطناعي لم يعد مجرد أداة في يد القادة العسكريين؛ أصبح جزءاً من البنية التحتية للصراع، من غرفة العمليات إلى شاشات هواتفنا.
ثلاث حقائق لا يمكن تجاهلها:
- الذكاء الاصطناعي يقتل: أنظمة الاستهداف المدعومة بالذكاء الاصطناعي تسرع وتيرة القتل، لكنها تزيد أيضاً من خطر الأخطاء القاتلة.
- الذكاء الاصطناعي يكذب: شبكات منظمة ومنشئو محتوى مستقلون ينتجون كميات هائلة من المعلومات المضللة، تشكل الرأي العام وتطمس الحقيقة.
- لا أحد محصن: من القنوات الإعلامية الكبرى إلى الهيئات الحكومية، الجميع معرض لخطر الانزلاق إلى فخ التضليل.
الاستخدام غير المقيد للذكاء الاصطناعي لأغراض عسكرية، ومنح الخوارزميات القدرة على تحديد الحياة والموت، لا يؤدي فقط إلى تآكل الضوابط الأخلاقية والمساءلة في الحروب، بل يخاطر أيضاً بانهيار السيطرة التكنولوجية” .
السؤال الذي يبقى مفتوحاً: هل يمكن للحقيقة أن تصمد أمام آلة التضليل؟ أم أننا دخلنا عصراً جديداً، حيث لم تعد الحقيقة شيئاً يُكتشف، بل شيئاً يُصنع؟





