الذكاء الاصطناعي
مخاطر التمييز الخوارزمي.. عندما تحكم الخوارزمية البشر
أخبار تك
حكم بلا استئناف
تخيل أن تتقدم لوظيفة تحلم بها منذ سنوات. تمتلك المؤهلات والخبرات، وتثق بأن سيرتك الذاتية ستجذب انتباه مسؤولي التوظيف. لكنك لا تصل إلى مقابلة واحدة. رسائل الرفض تصل إليك في منتصف الليل، خلال دقائق من تقديم الطلب. لا أحد ينظر في ملفك. لا أحد يقرأ خبراتك. خوارزمية مجهولة قررت مصيرك بلا محاكمة.
هذا ليس سيناريو خيال علمي. هذه قصة حقيقية لمئات الآلاف من الباحثين عن عمل في أميركا وأوروبا. في قضية رفعها ديريك موبلي (Derek Mobley) ضد شركة “ووركداي” (Workday)، تقدم الرجل الأسود الذي تجاوز الأربعين من عمره ويملك إعاقة إلى أكثر من 100 وظيفة على مدى سبع سنوات. كلها رُفضت خلال دقائق. الخوارزمية التي استخدمتها الشركات لتوظيف برامج “ووركداي” كانت تفرز المتقدمين تلقائياً، وكانت تفرز هو أيضاً.
ما هو التمييز الخوارزمي؟
التمييز الخوارزمي (Algorithmic Discrimination) هو الممارسة التي تؤدي فيها أنظمة الذكاء الاصطناعي إلى معاملة غير عادلة لأفراد أو مجموعات بناءً على خصائصهم المحمية (مثل العمر، الجنس، العرق، الدين، الإعاقة)، سواء عن قصد أو دون قصد.
الفرق الجوهري عن التمييز البشري:
- التمييز البشري هو “تجزئة” (Retail): كل قرار تحيزي يحدث بشكل فردي.
- التمييز الخوارزمي هو “جملة” (Wholesale): آلاف القرارات الخاطئة تُتخذ في ثوانٍ، وفقاً لنمط واحد.
تستخدم أنظمة الذكاء الاصطناعي في التوظيف، والإقراض، والتأمين، والتأجير العقاري، والتعليم، وحتى الرعاية الصحية. وعندما تخطئ، فإنها تخطئ على نطاق واسع.
كيف يحدث التمييز الخوارزمي؟
1. بيانات تدريب متحيزة (Biased Training Data)
النماذج تُدرَّب على بيانات تاريخية تعكس تحيزات الماضي. إذا كانت الشركة قد وظفت في السابق شباباً فقط (لأسباب ثقافية أو غير قانونية)، فإن الخوارزمية ستتعلم أن “الشباب هم الأنسب للوظيفة”، وتستمر في استبعاد المتقدمين الأكبر سناً.
في قضية “ووركداي”، ادعى المدعون أن الخوارزمية دربت فقط على بيانات الموظفين الحاليين، الذين كانوا من فئة عمرية ضيقة، مما أدى إلى استبعاد من تجاوزوا الأربعين.
2. المتغيرات البديلة (Proxy Variables)
حتى لو لم تطلب الخوارزمية معلومات عن العمر أو الجنس بشكل مباشر، يمكنها استخدام “متغيرات بديلة” تعكس هذه الخصائص. الرمز البريدي قد يكون بديلاً عن العرق. سنة التخرج قد تكون بديلاً عن العمر. الهوايات المذكورة في السيرة الذاتية قد تعكس الجنس.
3. حلقات التغذية المرتدة (Feedback Loops)
عندما تتعلم الخوارزمية من قراراتها السابقة، يمكن أن تتعزز التحيزات وتتضخم. إذا استبعدت الخوارزمية مجموعة معينة، فإن هؤلاء المتقدمين لن يحصلوا على الوظيفة، ولن تدخل بياناتهم في التدريب المستقبلي، فتستمر الخوارزمية في الاعتقاد بأنهم “غير مناسبين”.
4. نقص الشفافية (Lack of Transparency)
كثير من أنظمة الذكاء الاصطناعي هي “صناديق سوداء” (Black Boxes). حتى مطوروها لا يستطيعون تفسير كيف وصلت الخوارزمية إلى قرار معين. هذا يجعل اكتشاف التمييز وإثباته أمراً بالغ الصعوبة.
المعارك القانونية في أميركا
قضية “ووركداي” (Workday).. معركة العمر
ديريك موبلي (Derek Mobley) هو رمز هذه المعركة. الرجل الأسود ذو الإعاقة الذي تجاوز الأربعين تقدم إلى أكثر من 100 وظيفة على مدى سبع سنوات، باستخدام منصة “ووركداي” التي تعتمد عليها شركات كبرى مثل “مايكروسوفت” و”مورغان ستانلي” و”ستاربكس” و”شيفرون” و”باي بال”. كل طلباته رُفضت خلال دقائق، وفي ساعات متأخرة من الليل، مما يشير إلى أن لا إنساناً نظر في ملفه.
في مايو 2025، قضت القاضية ريتا إف لين (Rita F. Lin) في المحكمة الفيدرالية في كاليفورنيا بأن القضية يمكن أن تمضي قدماً كدعوى جماعية. وأكدت أن شركة “ووركداي” يمكن اعتبارها “وكيلاً” لأصحاب العمل الذين تستخدم أنظمتهم، وبالتالي فهي تخضع لقوانين مكافحة التمييز.
ما أهمية هذا القرار؟ لأول مرة، يقر القضاء أن شركة التكنولوجيا (وليست فقط صاحب العمل) يمكن أن تتحمل مسؤولية التمييز الذي تحدثه خوارزمياتها. هذا القرار فتح الباب أمام دعاوى مماثلة في قطاعات أخرى.
قضية “إيتفولد” (Eightfold).. المعركة الثانية
في يناير 2026، رفع اثنان من الباحثين عن العمل في كاليفورنيا دعوى جماعية ضد شركة “إيتفولد” (Eightfold AI)، التي توفر منصة توظيف تستخدمها شركات كبرى مثل “مايكروسوفت” و”باي بال” و”ستاربكس”.
الادعاء لم يكن أن الخوارزمية متحيزة (على عكس قضية “ووركداي”)، بل أنها كانت سرية. قامت المنصة بجمع بيانات عن أكثر من مليار شخص من وسائل التواصل الاجتماعي والمواقع الإلكترونية، ومنحتهم درجات من صفر إلى خمس، واستبعدت من حصلوا على درجات منخفضة قبل أن ينظر أي إنسان في طلباتهم.
المفارقة: المدعون لم يطلبوا إثبات التمييز. طلبوا فقط تطبيق قانون الإبلاغ الائتماني العادل (Fair Credit Reporting Act)، الذي يلزم أي جهة تجمع “تقارير استهلاكية” عن الأفراد بالكشف عن هذه التقارير لهم وإتاحة فرصة الاعتراض عليها.
هذا التحول الاستراتيجي (من إثبات التمييز إلى إثبات عدم الشفافية) قد يكون أكثر فعالية في تقييد ممارسات الذكاء الاصطناعي غير المنظمة.
قانون كولورادو.. الصراع على مستقبل التنظيم
البداية: أول قانون شامل في أميركا
في مايو 2024، أصبحت كولورادو أول ولاية أميركية تسن قانوناً شاملاً ينظم الذكاء الاصطناعي. القانون يلزم الشركات التي تستخدم أنظمة الذكاء الاصطناعي في القرارات المصيرية (التوظيف، الإسكان، التعليم، الرعاية الصحية، التمويل) باتخاذ إجراءات صارمة:
- تقييمات دورية للأثر: تحليل المخاطر المحتملة للتمييز.
- إشعارات للمستهلكين: إعلامهم عند استخدام الذكاء الاصطناعي في قرارات تخصهم.
- حق الاعتراض: إتاحة الفرصة للمتضررين للطعن في القرار وإعادة النظر فيه بشرياً.
- الشفافية: الكشف عن نوعية البيانات المستخدمة في التدريب.
محاولات الإجهاض: 150 لوبياً في 6 أيام
منذ لحظة إقراره، واجه القانون هجوماً شرساً من شركات التكنولوجيا. في أغسطس 2025، دعا الحاكم الديمقراطي جاريد بوليس (Jared Polis) لعقد دورة استثنائية لمجلس النواب مدتها 6 أيام، للنظر في تعديل القانون.
ما حدث في تلك الأيام الستة كان أشبه بفيلم هوليوودي: أكثر من 150 لوبياً وظفتهم شركات التكنولوجيا العملاقة (بما فيها أمازون) تجولوا في أروقة البرلمان، وأربعة مشاريع قوانين متعارضة قُدمت لإلغاء القانون أو تعطيله أو تقليصه.
كان الهدف الأكبر إزالة بند المسؤولية المشتركة (Joint and Several Liability)، الذي كان سيجعل مطوري الذكاء الاصطناعي يتحملون المسؤولية المالية المباشرة عن أضرار خوارزمياتهم. شركات التكنولوجيا رفضت هذا البند رفضاً قاطعاً.
النتيجة: انتصار مؤقت للقانون
في اللحظة الأخيرة، انهارت المفاوضات. النائب روبرت رودريغيز (Robert Rodriguez)، الذي كان يحاول التوفيق بين الأطراف، تخلى عن مشروعه وقال إن شركات التكنولوجيا “رفضت تحمل أي مسؤولية عن منتجاتها”.
لم يتم تمرير أي من مشاريع الإلغاء الأربعة. كل ما تحقق هو تأجيل التنفيذ لمدة 4 أشهر، من 1 فبراير إلى 30 يونيو 2026.
النائبة بريانا تيتون (Brianna Titone) علقت بمرارة: “رفضوا تحمل المسؤولية عن المنتجات التي يصنعونها. وهذا يجب أن يقلق الجميع”.
خطر جديد.. التزييف العميق في مكان العمل
في تطور يضيف بُعداً جديداً لمخاطر الذكاء الاصطناعي، بدأت تظهر دعاوى قضائية بسبب التزييف العميق (Deepfakes) في بيئة العمل.
الحادثة الأولى: كولين بيرسون (Collin Pearson)، ضابط شرطة واشنطن الذي أمضى 19 عاماً في الخدمة، رفع دعوى قضائية بعد أن أنشأ زملاؤه في العمل فيديو بتقنية التزييف العميق يظهره وهو “يقبل” زميلاً آخر، مع تعليق صوتي مهين. الفيديو انتشر بين زملائه، وعندما اشتكى، لم تتخذ الإدارة أي إجراء.
الحادثة الثانية: بري سميث فريدريكس (Bree Smith Friedrichs)، مقدمة طقس في قناة تلفزيونية بناشفيل، رفعت دعوى بعد أن انتشرت صور خليعة مزيفة لها (Deepfake Pornography) عبر الإنترنت، ورفضت الإدارة التحقيق في الحادثة أو حمايتها من التحرش.
في كلتا الحالتين، رفع المدعيان دعاوى بموجب قوانين مكافحة التمييز والتحرش في العمل، مدعين أن صاحب العمل فشل في توفير بيئة عمل آمنة وخالية من التمييز. الخبراء يؤكدون أن التزييف العميق قد يكون شكلاً جديداً من أشكال التحرش الجنسي والعنصري، وأن أرباب العمل قد يتحملون المسؤولية إذا لم يتخذوا إجراءات سريعة وحازمة.
ماذا يعني هذا للمنطقة العربية؟
ما يحدث في أميركا هو إنذار مبكر للمنطقة العربية. مع التوسع السريع في استخدام الذكاء الاصطناعي في التوظيف، والخدمات الحكومية، والقطاع المصرفي في دول الخليج ومصر، فإن نفس المخاطر التي ظهرت في واشنطن وكولورادو ستظهر هنا قريباً.
أسئلة تحتاج إلى إجابات:
- هل نعرف كيف تعمل خوارزميات التوظيف التي تستخدمها شركاتنا؟
- هل نتحقق من تحيزها قبل نشرها؟
- هل لدى المواطن العربي الحق في معرفة أن قراراً مصيرياً بحقه اتخذته آلة؟
- هل يمكنه الطعن في هذا القرار؟
حتى الآن، لا توجد إجابات واضحة.
خلاصة: لا للحكم بالغيب
المشكلة الأساسية مع التمييز الخوارزمي ليست فقط في “التحيز”، بل في “السرية”. أنظمة الذكاء الاصطناعي تتخذ قرارات مصيرية عن الناس، دون أن يعرف الناس أنها تفعل ذلك، ودون أن يحصلوا على فرصة للاعتراض.
التحول في المعركة القانونية الذي نشهده اليوم (من إثبات التمييز إلى إثبات عدم الشفافية) هو تطور حاسم. فكما قال أحد الخبراء في قضية “إيتفولد”: “لا نحتاج حتى أن نثبت أن الخوارزمية كانت متحيزة. نحتاج فقط أن نثبت أنها عملت في الخفاء”.
الشفافية، حق الاعتراض، والإشراف البشري. هذه هي المطالب الأساسية التي يجب أن تشكل أساس أي تنظيم للذكاء الاصطناعي في أي مكان في العالم، بما فيه العالم العربي. فالآلة لا يمكن أن تكون حكماً على مصير البشر دون رقابة أو استئناف.