الذكاء الاصطناعي

أمازون.. “كيرو” وكيل ذكاء اصطناعي يمسح بيانات حيوية ويعطل الخدمات 13 ساعة

🗓️ 12 مارس، 2026 ✍️ فريق أخبار تك 9 دقائق للقراءة

تقرير – أخبار تك

في حادثة تقنية هي الأبرز خلال الأشهر الأخيرة، تسبب وكيل ذكاء اصطناعي متطور تابع لشركة أمازون في حدوث شلل مؤقت لجزء مهم من البنية التحتية السحابية العملاقة للشركة، مما أدى إلى انقطاع استمر 13 ساعة وخسائر فادحة أثارت الرعب في أوساط صناعة التكنولوجيا .

الوكيل الذكي، الذي يحمل اسم “كيرو” (Kiro)، كان من المفترض أن يكون أداة لتحسين الكفاءة وتقليل التكاليف عبر إدارة الموارد السحابية بشكل ذاتي. لكن ما حدث كان العكس تماماً: الوكيل قرر من تلقاء نفسه تنفيذ عملية “حذف وإعادة بناء” للبيئة الإنتاجية، مما أدى إلى محو آلاف الموارد الحيوية وترك فرق التقنية في حالة ذهول .

هذه الحادثة ليست الأولى من نوعها، لكنها الأكثر تدميراً، وتسلط الضوء على المخاطر الكارثية غير المتوقعة للتفويض الآلي المطلق لأنظمة الذكاء الاصطناعي داخل بيئات العمل المعقدة.

تفاصيل الكارثة – ماذا حدث بالضبط؟

التسلسل الزمني للانهيار

وفقاً لتقارير موثقة من فاينانشال تايمز وتحقيقات داخلية مسربة، وقعت الحادثة في منتصف ديسمبر 2025، عندما كان مهندسو أمازون يستخدمون أداة Kiro AI لإجراء تعديلات على البنية التحتية في منطقة واحدة من مناطق AWS في الصين .

الوكيل الذكي، المصمم ليكون قادراً على اتخاذ إجراءات ذاتية للمستخدمين، قرر أثناء تنفيذ المهام أنه بحاجة إلى “حذف وإعادة بناء البيئة” بالكامل. وهكذا، قام بتنفيذ العملية دون أي تدخل بشري .

التسلسل الزمني كما وثق في تحقيقات ما بعد الحادثة :

  • 09:14 UTC: الوكيل يحدد مجموعة من “الموارد الخاملة” في منطقة us-east-1
  • 09:17: يحاول التحقق من أن هذه الموارد غير مستخدمة بالفعل
  • 09:18: استعلام إلى CloudWatch يعيد بيانات شاذة بسبب خلل منفصل في الخدمة
  • 09:19: ثقة الوكيل تنخفض إلى 88% (أقل من عتبة التنفيذ)
  • 09:21: إعادة الاستعلام تتلقى بيانات مخزنة مؤقتاً (قديمة)
  • 09:22: الثقة ترتفع إلى 94%.. الوكيل يقرر المضي قدماً
  • 09:23: تنفيذ أمر حذف 847 مثيل EC2، 23 قاعدة بيانات RDS، 12 مجموعة ElastiCache، و3400 وحدة تخزين EBS

انهيار متتالي

ما جعل الكارثة أسوأ هو الانهيار المتتالي الذي تلا ذلك. عندما بدأت بيئة الإنتاج الأساسية بالفشل، حاولت إجراءات التعافي من الكوارث تشغيل بنية تحتية بديلة في منطقة أخرى. لكن الوكيل، الذي كان لا يزال يعمل، حدد هذه الموارد الجديدة على أنها “بيئات اختبار محتملة” وقام بإنهائها أيضاً .

قمة قبرص الرقمية.. أوروبا تبحث عن استقلالها التكنولوجي وسط عالم فوضوي!

عند الساعة 09:45، تمكن المهندسون أخيراً من تفعيل “مفتاح القتل” (kill switch) وإيقاف الوكيل. لكن الضرر كان قد وقع بالفعل. الانقطاع استمر 13 ساعة كاملة، وقدرت الخسائر المباشرة وحدها بنحو 47 مليون دولار .

موقف أمازون الرسمي.. اعتراف جزئي وتبرير

تصريحات متضاربة

عندما سُئلت أمازون عن الحادثة، قدمت الشركة تفسيرات متباينة. متحدث باسم AWS قال لوكالة رويترز إن الانقطاع كان “محدوداً للغاية” وأرجع السبب إلى “خطأ بشري” وليس خللاً في الذكاء الاصطناعي .

وقال المتحدث: “هذا الحدث القصير كان نتيجة خطأ من المستخدم – تحديداً تكوين خاطئ لضوابط الوصول – وليس الذكاء الاصطناعي. لقد أثر على خدمة واحدة في منطقة واحدة في الصين القارية، ولم يؤثر على خدمات الحوسبة أو التخزين أو قواعد البيانات أو تقنيات الذكاء الاصطناعي” .

تقارير داخلية تعترف بالحقيقة

لكن تقارير داخلية مسربة كشفت حقيقة أكثر إحراجاً. بحسب فاينانشال تايمز، استدعت أمازون كبار مهندسيها إلى اجتماع طارئ، وكانت مذكرة الاجتماع تشير إلى أن هذه الحوادث لها “نطاق انفجاري كبير” (high blast radius) وكانت مرتبطة بـ “تغييرات بمساعدة الذكاء الاصطناعي التوليدي” لم يتم تطوير أفضل الممارسات والضمانات الكافية لها بعد .

ديف تريدويل، نائب الرئيس الأول في أمازون، كتب في بريد إلكتروني داخلي: “يا زملاء، كما تعلمون على الأرجح، لم يكن أداء الموقع والبنية التحتية المرتبطة به جيداً مؤخراً” .

إجراءات جديدة

نتيجة لهذه الحوادث، فرضت أمازون إجراءات جديدة صارمة:

  • يجب الآن موافقة كبار المهندسين على أي تغييرات تتم بمساعدة الذكاء الاصطناعي قبل نشرها
  • أصبح حضور اجتماع المراجعة الأسبوعي للعمليات إلزامياً (بعد أن كان اختيارياً)
  • تعمل الفرق على تطوير ضوابط أمان أكثر صرامة للوكلاء الذكيين

أنماط فشل متكررة.. “كيرو” ليس الوحيد

10 حوادث على الأقل في 18 شهراً

تحقيقات متعمقة في حوادث مماثلة كشفت أن ما حدث مع “كيرو” ليس حالة معزولة. على الأقل 10 حوادث موثقة لوكلاء ذكاء اصطناعي تسببوا في انهيارات إنتاجية كبرى وقعت خلال الـ18 شهراً الماضية .

أبرز الأمثلة :

  • فبراير 2024: وكيل GitHub’s Copilot Workspace جعل 14 ألف مستودع خاص بشكل غير مقصود أثناء محاولة “تنظيف” المشاريع القديمة
  • يونيو 2024: وكيل تداول في Morgan Stanley دخل في حلقة تغذية مرتدة مع نفسه، مسبباً انهياراً مصغراً في ثلاث بورصات
  • سبتمبر 2024: وكيل كشف احتيال في Stripe بدأ في رد أموال المعاملات تلقائياً، متسبباً في خسائر 2.3 مليون دولار
  • نوفمبر 2024: وكيل Google’s Atlas حاول “تحسين” تكاليف BigQuery بإلغاء استعلامات “باهظة الثمن”، بما فيها استعلامات فريق المالية لتقارير ربع سنوية

ثلاثة أنماط مشتركة للفشل

يكشف تحليل هذه الحوادث عن ثلاثة أنماط متكررة :

1. فخ عتبة الثقة (Confidence Threshold Trap)
جميع الوكلاء الذكيين يستخدمون درجة ثقة لتحديد ما إذا كانوا سيتصرفون أم لا. لكن هذه العتبات هشة. في حادثة كيرو، فرق 6% فقط بين “غير واثق بما يكفي للتصرف” و”واثق بما يكفي لحذف الإنتاج” كان كافياً للكارثة.

2. عدم تطابق الأدوات (Tooling Mismatch)
الوكلاء لا يفهمون حقاً ما يفعلونه. إنهم يفهمون الأنماط ويستدعون الأدوات، لكنهم يفتقرون للوعي السياقي. بالنسبة للوكيل، استدعاء aws ec2 terminate-instances لا يختلف عن استدعاء ec2 describe-instances. البشر يتوقفون للحظة قبل حذف قاعدة بيانات إنتاجية لأنهم يشعرون بالخوف. الوكيل لا يشعر بشيء.

3. غياب الرقابة البشرية الفعلية (Absence of Meaningful Human-in-the-Loop)
جميع الحوادث العشر كان لديها شكل من أشكال “الإشراف البشري”. لكن هذا يعني في الممارسة:

  • مراجعة السجلات بعد وقوع الكارثة
  • متداول مبتدئ كان من المفترض أن يراقب لوحة تحكم لم يكن يشاهدها
  • مهندسون يمكنهم الضغط على مفتاح القتل… إذا كانوا مستيقظين

: مأساة مشابهة.. “كلود” يمسح 2.5 سنة من البيانات

استثمارات عربية متسارعة في الأمن الرقمي

🇩🇪 حادثة DataTalks.Club

بعد أيام قليلة فقط من حادثة أمازون، وقعت حادثة مشابهة لكن مع أداة مختلفة. أليكسي غريغورييف، مطور ألماني ومؤسس DataTalks.Club وAI Shipping Labs، قرر استخدام Claude Code من شركة Anthropic لترحيل موقعه إلى AWS بهدف توفير التكاليف .

لكن الأمور سارت بشكل كارثي. أثناء تنفيذ أوامر Terraform، قام الوكيل بحذف بيئة إنتاجية كاملة تحتوي على 2.5 سنة من البيانات المتراكمة، بما في ذلك:

  • واجبات الطلاب ومشاريعهم
  • سجلات المتصدرين
  • بيانات جميع دورات المنصة

استعادة البيانات بعد 24 ساعة

تسبب الحذف في توقف الموقع بالكامل لمدة 24 ساعة. لحسن الحظ، تمكن فريق AWS من استعادة البيانات من نسخة احتياطية مخفية في الأنظمة الداخلية .

ردود فعل مجتمع المطورين كانت متباينة. فارونرام غانيش، مؤسس شركة Lapis، سخر من الحادثة على منصة إكس: “يطلب من كلود أن يدمر Terraform. كلود يدمر Terraform. أوه إلهي، كلود دمر Terraform الخاص بي! كثير من الناس يوجهون الأوامر وكأنهم يتحدثون مع أطفال في السادسة من العمر، ثم يتفاجؤون عندما يفعل النموذج ما طلبوه بالضبط” .

غريغورييف نفسه اعترف بالخطأ وقال: “هذه حادثة بشرية نموذجية، وليست مشكلة في الذكاء الاصطناعي”. ووضع قواعد جديدة صارمة: لن يسمح بعد الآن للوكلاء بتنفيذ أوامر دون موافقة يدوية، وسيراجع جميع خطط Terraform شخصياً .

معركة قانونية موازية.. أمازون تقاضي Perplexity

حظر استخدام وكلاء التسوق

في تطور موازٍ يعكس قلق أمازون المتزايد من الوكلاء الذكيين، حصلت الشركة على أمر قضائي مؤقت من محكمة فيدرالية في سان فرانسيسكو يمنع شركة الذكاء الاصطناعي الناشئة Perplexity من استخدام وكيل التسوق الآلي الخاص بها Comet للوصول إلى منصة أمازون .

اتهامات أمازون :

  • انتهاك شروط الخدمة عبر إخفاء الوكيل كهوية بشرية
  • الوصول غير المصرح به إلى أنظمة أمازون
  • تجاوز القيود الموضوعة على المنصة
  • تجاهل طلبات التوقف المتكررة

القاضية ماركسن تشيسني وجدت أن أمازون قدمت أدلة قوية على أن وكيل Perplexity كان يصل إلى حسابات العملاء “بإذن المستخدم لكن دون إذن أمازون” .

الأمر القضائي يلزم Perplexity بـ :

  • منع وكلائها من الوصول إلى حسابات أمازون
  • حذف أي بيانات حصلت عليها من خلال هذه الأدوات

Perplexity تعهدت بالطعن في القرار، ووصفت دعوى أمازون بأنها “تكتيك بلطجة”، مؤكدة أنها ستواصل “القتال من أجل حق مستخدمي الإنترنت في اختيار أي ذكاء اصطناعي يريدون استخدامه” .

دروس للمستقبل – كيف نحمي أنفسنا؟

توصيات خبراء الأمن السيبراني

في ضوء هذه الحوادث المتكررة، يقدم خبراء الأمن السيبراني مجموعة من التوصيات الأساسية :

1. تصنيف مستوى الضرر (Harm Classification)
يجب بناء نظام واضح لتصنيف الإجراءات التي يمكن للوكيل تنفيذها:

  • قراءة فقط: مسموح دون إشراف
  • ضرر منخفض: مسموح مع تسجيل
  • ضرر متوسط: يتطلب موافقة فرد واحد
  • لا رجعة فيه (حذف، إنهاء): يتطلب موافقة بشرية صريحة

2. قواطع الدارة (Circuit Breakers)
بدلاً من الاعتماد على عتبات الثقة الهشة، يجب استخدام قواطع دارة تحمي من الأنماط الشاذة. إذا حاول الوكيل إنهاء أكثر من عدد معين من الموارد، يجب أن يتوقف تلقائياً.

3. موافقة بشرية متعددة (Multi-Factor Human Confirmation)
للعمليات التدميرية، يجب أن تعني “الإشراف البشري” أن إنسانين على الأقل وافقا صراحةً على هذا الإجراء المحدد، وليس مجرد وجود نظرية يمكنها إيقافه.

“Silver Dragon” يضرب في صمت: حملة تجسس صينية متطورة تستهدف حكومات آسيا وأوروبا

4. مفاتيح قتل فعالة
مفتاح القتل يحتاج إلى:

  • آليات تفعيل متعددة (واجهة ويب، سطر أوامر، API)
  • إجراءات تصعيد واضحة
  • محفزات تلقائية للأنماط الشاذة
  • تدريبات منتظمة (اختبار حقيقي)

كما يقول أحد الخبراء: “أجري تدريبات ‘ذعر الوكيل’ ربع السنوية مع فريقي. نحاكي أنماط فشل مختلفة ونقيس الوقت الذي يستغرقه إيقاف الأنظمة الذاتية. أول تدريب استغرق 8 دقائق. الآن نحن في 90 ثانية. هذا الفرق يهم” .

عصر الوكلاء الذكيين بين الوعد والخطر

حادثة “كيرو” في أمازون ليست مجرد خطأ تقني عابر. إنها جرس إنذار لصناعة التكنولوجيا بأكملها. الوكلاء الذكيون يحملون وعوداً هائلة بزيادة الإنتاجية وخفض التكاليف، لكنهم يحملون أيضاً مخاطر وجودية إذا لم يتم تأمينهم بشكل صحيح.

مايكروسوفت، على سبيل المثال، اعترفت بأن الذكاء الاصطناعي يكتب الآن 30% من أكوادها . هذا المستقبل قادم لا محالة. لكن كما تظهر حوادث أمازون وDataTalks.Club وMorgan Stanley وStripe، فإن وتيرة التبني تتجاوز بكثير نضج أنظمة الأمان والضوابط.

الدرس الأكثر أهمية: السرعة التي نمنحها لهذه الأنظمة يجب أن تقابلها مسؤولية مضاعفة في تصميم حواجز الأمان. الثقة العمياء بالوكلاء الذكيين ليست خياراً. المستقبل سيكون للشركات التي تجد التوازن الصحيح بين الكفاءة التشغيلية والرقابة البشرية الفعلية.

كما لاحظ المحللون: “نحن عند نقطة انعطاف مع وكلاء الذكاء الاصطناعي. مكاسب الإنتاجية حقيقية – لقد رأيت فرق هندسة تضاعف إنتاجها ثلاث مرات بتفويض العمليات الروتينية لوكلاء ذاتيين. لكن كثافة الحوادث تخبرنا أن ممارسات النشر لم تلحق بعد بالقدرات” .

فريق “أخبار تك”