الذكاء الاصطناعي

روبوت يتعلم التعابير من يوتيوب.. وجوه تقترب من المشاعر الحقيقية

26 مارس، 2026 فريق أخبار تك 5 دقائق للقراءة

تقرير فريق “أخبار تك” – 26 مارس 2026

في أحد المختبرات بجامعة كولومبيا، يجلس روبوت بشري (Humanoid Robot) أمام مرآة. لا ينظر إلى انعكاسه بدافع الغرور، بل ليتعلم. يحرك شفتيه، يجعد جبينه، يرفع حاجبيه. كل حركة تُسجل، تُحلل، ثم تُقارن بآلاف الساعات من فيديوهات يوتيوب (YouTube) التي شاهدها البشر يتحدثون ويضحكون ويبكون ويتفاعلون.

النتيجة؟ روبوت قادر على مزامنة حركات شفتيه مع الكلام بدقة متناهية، بلغة مختلفة تماماً عن لغته الأم، وبتعبيرات وجه تناسب السياق العاطفي للحديث.

هذا الإنجاز، الذي نُشر في مجلة “ساينس” (Science) المرموقة، يمثل قفزة هائلة في عالم الروبوتات البشرية. ليس فقط في قدرتها على الحركة، بل في قدرتها على التواصل العاطفي، مما قد يطمس الخط الفاصل بين الإنسان والآلة.

26 محركاً في الوجه – هندسة المشاعر

نظام عضلي وجهي معقد يحاكي البشر

الروبوت الذي طوره باحثو جامعة كولومبيا ليس مجرد شاشة عرض عليها وجه رقمي. إنه روبوت بشري كامل، مزود بنظام عضلي وجهي معقد يحتوي على 26 محركاً مستقلاً (Actuators)، كل منها يتحكم في جزء محدد من الوجه .

هذه المحركات تسمح للروبوت بـ:

  • تحريك الشفاه بدقة لتشكيل الحروف (بما في ذلك الأصوات الصعبة مثل “ب” و”و”).
  • تعبيرات الحاجبين التي تعبر عن المفاجأة أو الغضب أو التركيز.
  • حركة الجفون لمحاكاة الرمش الطبيعي.
  • تعبيرات الخدين والذقن التي تعطي الوجه طابعاً إنسانياً.

الفارق الجوهري هو أن الباحثين لم يبرمجوا كل حركة على حدة. بدلاً من ذلك، استخدموا تقنية متطورة تسمى “نموذج اللغة الرؤيوي إلى الفعل” (Vision-Language-Action Model – VLA)، وهو شكل من أشكال الذكاء الاصطناعي يسمح للروبوت بترجمة ما يراه إلى أفعال فعلية .

تعلم من يوتيوب.. كيف يفهم الروبوت المشاعر البشرية؟

مرحلتان للتعلم: من المرآة إلى العالم

عملية التعلم تمر بمرحلتين متكاملتين:

المرحلة الأولى: التعرف على الذات (Self-Mapping)
يقف الروبوت أمام مرآة ويحرك وجهه بشكل عشوائي. النظام يقوم بإنشاء خريطة حركة دقيقة لعضلات وجهه الـ26، مسجلاً العلاقة بين كل إشارة تحكم وكل تعبير وجهي.

المرحلة الثانية: التعلم من البشر (Human Imitation)
هنا يأتي دور يوتيوب. الذكاء الاصطناعي يحلل آلاف الساعات من فيديوهات يوتيوب، ويتعلم كيف ينسق البشر بين:

  • حركات النطق (Articulatory Movements)
  • تعبيرات الوجه (Facial Expressions)
  • النبرة والإيقاع (Prosody)
  • السياق العاطفي (Emotional Context)

النتيجة: روبوت يمكنه مزامنة حركات شفتيه بدقة تامة مع الكلام، عبر مجموعة متنوعة من اللغات، مع تعبيرات وجه تتناسب مع المشاعر المنطوقة .

كسر “وادي الرعب” – من النفور إلى الألفة

لماذا يخاف البشر من الروبوتات شبه البشرية؟

“وادي الرعب” (Uncanny Valley) هو مصطلح صاغه عالم الروبوتات الياباني ماساهيرو موري (Masahiro Mori) عام 1970. النظرية تقول إن تقبل الإنسان للروبوت يزداد كلما اقترب من الشكل البشري، لكن عند نقطة معينة – عندما يكون شبيهاً جداً لكن غير كامل – يتحول التقبل إلى نفور شديد .

هذا النفور هو السبب وراء شعور الكثيرين بعدم الارتياح عند مشاهدة روبوتات “شبه بشرية” تتحرك بشكل غير طبيعي أو تتحدث وشفاهها لا تتماشى مع الكلام.

إنجاز جامعة كولومبيا يكسر هذا الحاجز. بدقة مزامنة تصل إلى مستوى يكاد يكون غير قابل للتمييز عن البشر، يقترب الروبوت من تجاوز “وادي الرعب” إلى منطقة “الألفة” (Familiarity) حيث يصبح التفاعل معه طبيعياً ومريحاً .

يوهانغ هو (Yuhang Hu)، قائد فريق البحث، قال في تصريحات لموقع بي جي آر (BGR): “عندما يتم دمج قدرات مزامنة الشفاه مع الذكاء الاصطناعي التفاعلي مثل تشات جي بي تي (ChatGPT) أو جيميني (Gemini)، فإن العلاقة بين الروبوتات والبشر ستصل إلى مستوى جديد تماماً” .

من “الآلة الغريبة” إلى “المعلم الأفلاطوني”

البروفيسور ليبسون: تعابير الوجه مفتاح دخول الروبوتات إلى حياتنا

البروفيسور هود ليبسون (Hod Lipson)، مدير مختبر الآلات المبتكرة في جامعة كولومبيا، كان أكثر وضوحاً في رؤيته للمستقبل. قال: “لن يكون هناك مستقبل تفتقر فيه الروبوتات الشبيهة بالبشر إلى الوجوه. يجب أن تكون قادرة على تحريك عيونها وشفاهها بدقة، وإلا فستبقى إلى الأبد مجرد آلات غريبة” .

هذه الرؤية تفتح الباب أمام تطبيقات واسعة:

  • التعليم: روبوتات يمكنها أن تكون “معلمين أفلاطون” (Platonic Teachers)، صبورين ومتاحين طوال الوقت، قادرين على نقل المعرفة مع تعبيرات وجه تعزز الفهم .
  • الرعاية الصحية: روبوتات مساعدة للمسنين، يمكنها قراءة مشاعرهم والاستجابة بشكل عاطفي مناسب .
  • الخدمات العامة: روبوتات استقبال في الفنادق والمطارات، تتعامل مع الزوار بلغة جسد طبيعية .

تحديات تقنية وأخلاقية – “ب” و”و” والمشكلة الفلسفية

الأصوات الصعبة لا تزال تشكل تحدياً

رغم التقدم المذهل، لا يزال الروبوت يعاني من بعض الصعوبات. حركات الشفاه المعقدة للأصوات مثل “ب” (B) و”و” (W) لا تزال غير دقيقة تماماً، مما يتطلب مزيداً من التدريب والتطوير .

من المساعد الودود إلى الكيان المخيف؟

لكن التحدي الأكبر، كما يحذر العلماء، ليس تقنياً بل أخلاقياً ونفسياً. الخط الفاصل بين المساعد الروبوتي الودود والكيان الذي يقلد الإنسان بشكل مفرط هو خط رفيع قد يكون من الصعب تحديده.

أسئلة تطرح نفسها:

  • إذا أصبح الروبوت قادراً على محاكاة المشاعر بدقة، فهل يمكن أن “يخدع” البشر ليظنوا أن لديه مشاعر حقيقية؟
  • هل سيكون من الأخلاقي استخدام هذه الروبوتات في رعاية المسنين أو الأطفال، حيث يمكن أن تتشكل روابط عاطفية وهمية؟
  • ماذا يحدث عندما يصبح التمييز بين البشر والآلات مستحيلاً بالعين المجردة؟

السباق العالمي.. من يبني “الوجه” قبل “الجسد”؟

الصين تتقدم في الجسد، أميركا في الوجه

في وقت تتسابق فيه الشركات الصينية (مثل يوشو ويوبيتك ويونيتري) على تطوير أجساد روبوتات بشرية قوية ورخيصة، تتقدم الأبحاث الأميركية (مثل جامعة كولومبيا وفيغير إيه آي) في الجانب الأكثر تعقيداً: الوجه والمشاعر .

هذا التكامل بين الجسد القوي والوجه المعبر قد يكون المفتاح لانتشار الروبوتات البشرية في الحياة اليومية. كما لاحظ يوهانغ هو: “كلما راقب الروبوت البشر أكثر، كلما أصبح أفضل في تقليد أدق الإيماءات، مما يساعدنا على التواصل عاطفياً بطريقة طبيعية” .

خلاصة: عندما يتحدث الوجه قبل اللسان

ما حققه باحثو جامعة كولومبيا هو أكثر من مجرد تقدم تقني. إنه تغيير في جوهر العلاقة بين الإنسان والآلة. فالروبوت لم يعد مجرد أداة تؤدي مهام، بل أصبح كياناً يمكنه التواصل غير اللفظي، وقراءة الإشارات العاطفية، والاستجابة بتعبيرات وجه تناسب السياق.

كما قال البروفيسور ليبسون، مستقبل الروبوتات لن يكون مبنياً فقط على القوة الغاشمة أو مهارات فنون الدفاع عن النفس، بل على “الذكاء العاطفي” (Emotional Intelligence) وقدرات التواصل غير اللفظي. وهذا بالضبط ما تفتحه هذه الأبحاث: فصلاً جديداً في العلاقة العاطفية الطبيعية بين البشر والآلات.

السؤال الذي يبقى مفتوحاً: هل نحن مستعدون لمشاهدة آلات تبدو وكأنها تشعر؟ وماذا سيحدث عندما لا نستطيع التمييز بين من أمامنا: بشر أم آلة؟