الذكاء الاصطناعي

مخاطر الذكاء الاصطناعي على الأمن والعمل: دراسة “علمية” تضع النقاط على الحروف

29 مارس، 2026 فريق أخبار تك 4 دقائق للقراءة

فريق أخبار تك

مقدمة: لماذا تهمنا هذه الدراسة الآن؟

في عالم يتسارع فيه تبني تقنيات الذكاء الاصطناعي، تبرز دراسة صادرة عن مؤسسة “راند” الأمريكية (RAND Corporation) كمرجع تحليلي مهم لفهم الجانب المظلم من هذه الثورة التقنية.

الدراسة، التي أعدها الباحثان أوسوند أ. أوسوبا وويليام ويلسر الرابع، لا تقدم تنبؤات خيالية، بل تحليلاً واقعياً للمخاطر الملموسة التي يفرضها الذكاء الاصطناعي على أمن الدول ومستقبل العمل.

والأهم: الدراسة لا تكتفي بتشخيص المشكلة، بل تطرح إطاراً عملياً لصانعي السياسات للتعامل مع هذه التحديات.

المحور الأول: الذكاء الاصطناعي والأمن… علاقة معقدة

1. الثغرات في “النظام التعليمي” للذكاء الاصطناعي

تتعلم أنظمة الذكاء الاصطناعي من البيانات التي تُغذى بها. وهنا تكمن نقطة ضعف حرجة: إذا كانت بيانات التدريب مُلوثة أو مُتلاعَب بها، ستكون مخرجات النظام معيبة أو خطيرة.

أمثلة واقعية:

  • هجوم “ميراي” (Mirai) الذي استغل أجهزة إنترنت الأشياء ضعيفة الحماية لبناء شبكة هجمات ضخمة.
  • دودة “ستكس نت” (Stuxnet) التي استهدفت أنظمة صناعية حساسة بدقة .

الدرس: أمن الذكاء الاصطناعي يبدأ من أمن بياناته.

2. تضخيم التحيز وتآكل الثقة

عندما تُستخدم خوارزميات الذكاء الاصطناعي في مجالات حساسة مثل العدالة الجنائية أو التوظيف، قد تُكرّس تحيزات موجودة مسبقاً في البيانات التاريخية.

حالة دراسة: نظام “كومباس” (COMPAS) المستخدم في الولايات المتحدة لتقييم خطر العودة للإجرام، وُجد أنه يميل للتحيز ضد فئات عرقية معينة.

النتيجة: قرارات تبدو “موضوعية” لأنها صادرة عن آلة، لكنها في الواقع تحمل تحيزات بشرية مُضمّنة في الكود.

3. فقاعات التصفية والاستقطاب الرقمي

خوارزميات التوصية في منصات التواصل الاجتماعي تُظهر للمستخدمين محتوى يتوافق مع معتقداتهم المسبقة. هذا يخلق “فقاعات تصفية” (Filter Bubbles) تعزل الأفراد عن وجهات نظر مغايرة.

التأثير: تعميق الانقسامات المجتمعية، وتسهيل انتشار المعلومات المضللة، وتقويض النقاش العام العقلاني.

4. المراقبة الذكية… نعمة ونقمة

تمكّن تقنيات الذكاء الاصطناعي الحكومات من مراقبة الفضاء الرقمي بطرق غير مسبوقة. بينما يمكن استخدام هذه القدرات لمكافحة الجريمة والإرهاب، فإنها تطرح أسئلة صعبة حول الخصوصية والحريات المدنية.

السؤال الجوهري: كيف نوازن بين الأمن والحرية في عصر المراقبة الخوارزمية؟

المحور الثاني: الذكاء الاصطناعي ومستقبل العمل… بين الأتمتة والفرص

1. ليس كل الوظائف سواء

تفند الدراسة الفكرة المبسطة التي تقول إن “الذكاء الاصطناعي سيسرق وظائفنا”. الواقع أكثر تعقيداً:

وظائف معرضة للخطر: المهام الروتينية، القابلة للتكرار، والقائمة على قواعد واضحة (مثل إدخال البيانات، الخطوط الإنتاجية البسيطة).

وظائف في أمان نسبي: المهام التي تتطلب إبداعاً، ذكاءً عاطفياً، تفاعلاً بشرياً معقداً، أو اتخاذ قرارات في ظروف غامضة (مثل الرعاية الصحية، التعليم، القيادة الإستراتيجية).

2. تأثير “إزالة المهارة” (Deskilling Effect)

عندما تتولى الآلة المهام المعقدة، قد يفقد البشر المهارات التي كانوا يمارسونها يدوياً. هذا يخلق اعتماداً متزايداً على التقنية، ويقلل من المرونة البشرية عند تعطل الأنظمة.

المثال: الطيارون الذين يعتمدون كثيراً على الطيار الآلي قد يفقدون حدة مهاراتهم في الطيران اليدوي عند الطوارئ.

3. الاقتصاد التشاركي والعمل “المصغّر”

منصات مثل “أوبر” و”ميكانيكال تورك” تعيد تشكيل سوق العمل. بينما توفر مرونة للبعض، فإنها تطرح تحديات تتعلق باستقرار الدخل، والحماية الاجتماعية، وحقوق العاملين.

التحدي: كيف نضمن عدالة انتقالية للعاملين في ظل تحول نماذج العمل التقليدية؟

الإطار التحليلي: كيف نقيّم قابلية المهنة للأتمتة؟

تقترح الدراسة إطاراً بسيطاً يعتمد على بعدين:

🔹 مستوى التعقيد (الضوضاء): كم عدد المتغيرات غير المتوقعة التي يجب على العامل التعامل معها؟

🔹 زمن الاستجابة المطلوب: هل يجب اتخاذ القرار في ثوانٍ، أم هناك وقت للتفكير والتحليل؟

النتيجة:

  • المهن عالية التعقيد + زمن استجابة طويل = أقل عرضة للأتمتة الكاملة.
  • المهن منخفضة التعقيد + زمن استجابة قصير = أكثر عرضة للأتمتة.

هذا الإطار يساعد صانعي السياسات على توجيه جهود إعادة التدريب نحو المهن الأكثر عرضة للتحول.

توصيات الدراسة: أربع ركائز للتعامل المسؤول مع الذكاء الاصطناعي

1. تعزيز اليقظة الاستباقية

  • إنشاء آليات لاكتشاف نقاط الضعف في أنظمة الذكاء الاصطناعي قبل استغلالها.
  • تشجيع “الاختراق الأخلاقي” لأنظمة الذكاء الاصطناعي لتحسين أمنها.

2. تقليل الاعتماد الأعمى

  • تصميم أنظمة هجينة تبقي الإنسان في حلقة اتخاذ القرار الحاسم.
  • تدريب المستخدمين على التشكيك النقدي في مخرجات الذكاء الاصطناعي، لا القبول السلبي.

3. الاستثمار في رأس المال البشري

  • تحديث أنظمة التعليم لتعليم مهارات لا تستطيع الآلة محاكاتها بسهولة: التفكير النقدي، الإبداع، التعاون.
  • برامج إعادة تأهيل مرنة للعاملين في المهن المعرضة للتحول.

4. تعزيز التعاون الدولي في البحث والسياسات

  • الذكاء الاصطناعي تحدٍ عالمي يتطلب حلولاً عالمية.
  • تبادل أفضل الممارسات، وتنسيق المعايير الأخلاقية، ومنع سباق التسلح الخوارزمي.

خلاصة “أخبار تك”: ماذا يعني هذا للقارئ العربي؟

🔹 الفرصة: المنطقة العربية تمتلك شباباً متعلماً وطموحاً. الاستثمار في تعليم مهارات المستقبل يمكن أن يحول التحدي إلى ميزة تنافسية.

🔹 الخطر: تبني تقنيات الذكاء الاصطناعي دون فهم مخاطرها قد يعمق الفجوات الرقمية، ويُضعف السيادة التقنية.

🔹 المسؤولية: على الحكومات والقطاع الخاص والمجتمع المدني العمل معاً لوضع أطر حوكمة رشيدة تواكب الابتكار دون التضليل بالقيم.

كلمة أخيرة :

الذكاء الاصطناعي ليس قدراً محتوماً، ولا حلاً سحرياً. إنه أداة قوية، وككل أداة قوية، قيمتها تعتمد على من يستخدمها، ولماذا، وكيف.

المستقبل لا يُكتب بالكود فقط، بل بالإرادة البشرية الواعية.

المصدر: دراسة “مخاطر الذكاء الاصطناعي على الأمن ومستقبل العمل”، مؤسسة راند (RAND Corporation)، إعداد: أوسوند أ. أوسوبا وويليام ويلسر الرابع.