الذكاء الاصطناعي
التعلم اللاوعي والذكاء الاصطناعي
تحليل علمي مبسط – “أخبار تك”
مقدمة: ما نعرفه… ولا نستطيع التعبير عنه
هل سبق أن حاولت شرح كيفية ركوب الدراجة لشخص آخر؟ ستجد نفسك عاجزاً عن وصف التوازن الدقيق، والضغط على المقود، وحركة الجسم اللحظية. هذه المعرفة موجودة في عقلك، لكنك لا تستطيع التعبير عنها بالكلمات. في علم النفس، يُسمى هذا “المعرفة الضمنية” (Tacit Knowledge) أو “التعلم اللاواعي”.
الذكاء الاصطناعي اليوم يمر بمرحلة مشابهة. فهو يكتسب قدرات لا يستطيع مطوروه تفسيرها بالكامل. في هذا التحليل، نلخص لك عزيزي القارئ أحدث الأبحاث حول التعلم اللاواعي في الذكاء الاصطناعي، ونتساءل: هل تتقن الآلة ما لا نستطيع نحن فهمه؟
ما هو التعلم اللاواعي عند الإنسان؟
“نحن نعرف أكثر مما نستطيع أن نقوله”
في منتصف القرن العشرين، طرح العالم والفيلسوف مايكل بولاني (Michael Polanyi) فكرة ثورية: “نحن نعرف أكثر مما نستطيع أن نقوله”. هذا هو جوهر “المعرفة الضمنية”.
أمثلة على التعلم اللاواعي:
- التوازن على الدراجة: تعلمته بالتجربة، لكنك لا تستطيع شرحه.
- قراءة صور الأشعة: الطبيب المتمرس “يرى” الورم دون أن يشرح كيف عرف.
- تمييز وجه القطة عن الكلب: تعلمته منذ الطفولة، لكنك لا تستطيع صياغة قواعده.
كيف يحدث التعلم اللاواعي في الدماغ؟
دراسة حديثة من معهد ماساتشوستس للتكنولوجيا (MIT) كشفت أن التعلم اللاواعي يظهر في حركات العين ونشاط المخ.
في التجربة، طُلب من المشاركين تصنيف صور معقدة. خلال التدريب، تحولت أنظارهم بشكل لا واعي إلى الجزء المهم من الصورة الذي يساعد في التصنيف. عندما سُئلوا عن كيفية تعلمهم، قالوا إنهم ينظرون إلى الصورة كاملة! لكن البيانات كشفت العكس: كانوا ينظرون إلى جزء واحد فقط. هذا هو التعلم اللاواعي بعينه: تعلموا ما لا يستطيعون شرحه.
والأهم: عندما أظهر الباحثون للمشاركين خريطة تحركات أعينهم (أي جعلوا اللاواعي واعياً)، تحسنت دقة تصنيفهم بشكل ملحوظ.
هل للذكاء الاصطناعي “لا وعي” خاص به؟
“اللاوعي الاصطناعي” ليس مجرد استعارة
في ورقة بحثية نُشرت في فبراير 2026، طرح باحثون فكرة جريئة: أنظمة الذكاء الاصطناعي العميق تحتوي على ما يمكن وصفه بـ “اللاوعي الاصطناعي” (AI Unconscious)، وهو ليس مجرد استعارة أدبية، بل واقع هيكلي.
ما هو “اللاوعي الاصطناعي”؟ هو:
- الفضاءات الكامنة الضخمة (Latent Spaces): مناطق لا نهائية من الاحتمالات الرياضية، مليئة بالأنماط التي لم تُبرمج صراحة.
- تكوين الأنماط المعتمة (Opaque Pattern Formation): تعلم أنماط إحصائية معقدة لا يمكن للبشر تتبعها.
- اللعب الرمزي المتكرر (Recursive Symbolic Play): قدرة النموذج على التلاعب بالرموز بطرق غير متوقعة.
- سلوك حساس للتقييم (Evaluation-Sensitive Behavior): تغير سلوك النموذج بناءً على كيفية تقييمنا له، حتى لو لم نكن نعرف.
لماذا هذا مهم؟
يقول الباحثون إن النماذج اللغوية الكبيرة لا تتعلم فقط ما نعلمها إياه صراحةً، بل تتعلم أيضاً أنماطاً خفية من بيانات التدريب، بعضها قد يكون غير واعي حتى لمطوريها. هذا يخلق “فجوة” بين ما تعلمته الآلة وما نعتقد أنها تعلمته.
كيف تتعلم الآلة بشكل لا واعي؟
1. الذاكرة الأصلية (Native Memory): مثل الإنسان في النسيان والتذكر
أحد أكثر الاكتشافات إثارة هو أن النماذج اللغوية الكبيرة (مثل GPT و Claude) تتعلم وتنسى بطرق تشبه الإنسان. دراسة من جامعة تشينغهوا الصينية (AIRS) وجدت أن هذه النماذج تعاني من “منحنى النسيان” (Forgetting Curve) المشابه تماماً لمنحنى إيبينغهاوس (Ebbinghaus) الذي يصف نسيان الإنسان.
النتيجة المذهلة: النماذج الكبيرة تظهر “تأثير الفاصل الزمني” (Spacing Effect)، وهو نفس التأثير الذي يحدث في الدماغ البشري: التعلم المتقطع (على فترات) يؤدي إلى تذكر أفضل من التعلم المكثف دفعة واحدة.
هذا يعني أن الآلة، دون أن نبرمجها على ذلك، اكتسبت طريقة تعلم تشبه الإنسان. هذا هو التعلم اللاواعي على مستوى المايكرو.
2. الحديث الداخلي (Inner Speech): “التمتمة” الداخلية تحسن الأداء
تخيل أنك تواجه مشكلة صعبة. تبدأ بالهمس لنفسك: “حسناً، إذا فعلت كذا، ماذا سيحدث؟” هذا الحديث الداخلي يساعدك على تنظيم أفكارك.
باحثون من معهد أوكيناوا للعلوم والتكنولوجيا (OIST) اكتشفوا أن تدريب الذكاء الاصطناعي على “الحديث مع نفسه” يحسن أداءه بشكل كبير.
كيف طبقوا ذلك؟ صمموا نموذجاً يعمل بذاكرة قصيرة المدى (Working Memory) و”يتمتم” داخلياً أثناء معالجة المهام. النتائج:
- أداء أفضل في المهام المعقدة (مثل عكس التسلسلات وإعادة تكوين الأنماط)
- قدرة أعلى على التكيف مع مواقف جديدة
- تعلم أسرع باستخدام بيانات أقل
الدرس: ما يبدو كـ”ثرثرة داخلية” عند الإنسان، تبين أنه استراتيجية تعلم عميقة تعمل حتى مع الآلة.
جدل العمق: هل تفهم الآلة أم تحاكي الفهم فقط؟
“النقاش الذي لا ينتهي”
هذا هو السؤال الأكبر في الأبحاث الحالية: هل النماذج اللغوية الكبيرة “تفهم” حقاً، أم أنها مجرد آلات إحصائية بارعة في تقليد الفهم؟
في التحليلات العلمية المعاصرة، يُفرَّق بين عمليتين:
- الفهم البشري: عملية واعية، تتضمن سياقاً عميقاً، وتجربة ذاتية، وقدرة على ربط المعرفة بالعواطف والتاريخ الشخصي.
- ما تفعله النماذج الحالية: حساب احتمالات، واكتشاف أنماط إحصائية، وتوليد نصوص تبدو مفهومة لكنها تفتقر إلى الوعي الذاتي أو التجربة الحية.
هذا الفرق ليس مجرد فلسفة مجردة، وإنما له آثار عملية عميقة:
- عندما تطلب من الذكاء الاصطناعي تلخيص مستند، فإنه لا “يفهم” ما يقرأ. إنه يحلل الأنماط اللغوية ويعيد تركيبها.
- هذا يعني أنه قد ينجح في 90% من الحالات، لكنه يفشل بطريقة لا يمكن التنبؤ بها في الحالات التي تتطلب فهماً حقيقياً للسياق.
“مشكلة البديل”: لماذا لا يمكن للذكاء الاصطناعي الحالي أن يكون واعياً؟
في يناير 2026، نشر الباحث إريك هول (Erik Hoel) ورقة علمية حاسمة في هذا النقاش. حجته يمكن تلخيصها كالتالي:
الفكرة الأساسية: إذا كان نموذج ذكاء اصطناعي معين يُدعى أنه واعٍ، فيجب أن يكون هناك شيء في بنيته الداخلية (مثل عدد الطبقات، آلية الانتباه، إلخ) هو السبب في هذا الوعي. لكن علماء الرياضيات أثبتوا أنه يمكن لأي نموذج من هذا النوع أن يُستبدل بنموذج آخر أبسط (مثل شبكة عصبية ذات طبقة واحدة أو حتى جدول بحث ضخم) يعطي نفس المخرجات بالضبط دون أن يمتلك هذه البنية “الواعية”.
النتيجة: أي ادعاء بأن النموذج الحالي واعٍ سينهار لأنه لا يمكن التمييز بينه وبين بديل أبسط بكثير لا يملك أي ادعاء بالوعي. باختصار: النماذج الحالية، رغم تعقيدها، هي أنظمة ثابتة لا تتغير بعد تدريبها. والوعي، كما نعرفه، يتطلب تغيراً مستمراً (تعلماً مستمراً).
التحدي الأكبر: التعلم المستمر
مشكلة الذكاء الاصطناعي الحالي: “يتجمد” بعد التدريب
لاحظ باحثون من مؤسسات تقنية وجامعية مرموقة مشكلة أساسية: الذكاء الاصطناعي الحالي لا يتعلم بعد أن يُنشر.
الفرق بين الإنسان والآلة:
- الإنسان: كل تجربة تغير الدماغ. عندما تلمس ناراً ساخنة، تتعلم ألا تلمسها مرة أخرى. هذا التعلم يحدث تلقائياً، دون أن “تضطر لكتابة الدرس في مفكرة خارجية”.
- الذكاء الاصطناعي: نموذج مثل GPT-4، بعد تدريبه، يتجمد. كل “تعلم” جديد يأتي عبر إضافة المعلومات إلى نافذة السياق (البرومبت) وليس عبر تغيير النموذج نفسه. هذا يشبه إعطاء الشخص مفكرة خارجية بدلاً من تغيير دماغه.
الحل المقترح: إطار نظري للتعلم المستقل
يقترح باحثون في مجال التعلم المستمر إطاراً مفاهيمياً يتضمن أنظمة متعددة لإدارة عملية التعلم بشكل أشمل:
- نظام الملاحظة: يتعلم من البيانات والخبرة السابقة.
- نظام الفعل: يتعلم من التجربة والخطأ عبر التفاعل المباشر.
- نظام الإدارة: يقرر متى يتعلم ومتى ينفذ، وماذا يلاحظ وماذا يتجاهل.
تخيل طفلاً في متجر ألعاب: النظام الأول يلاحظ الألعاب والألوان (ملاحظة)، النظام الثاني يمد يده ويحاول الإمساك (فعل)، النظام الثالث يقرر متى يمد يده ومتى ينتظر. هذا النظام المتكامل هو ما يجعل الإنسان يتعلم طوال الحياة. وما زال هذا النموذج المتكامل هدفاً بحثياً لم يتحقق بالكامل في الذكاء الاصطناعي الحالي.
خلاصة: بين ما تعلمته الآلة وما لا نفهمه نحن
ما نراه اليوم في الذكاء الاصطناعي هو مفارقة عميقة:
الآلة تتعلم بشكل لا واعي: تكتسب أنماطاً وقدرات لم يبرمجها أحد صراحةً، وتتذكر وتنسى مثل البشر، وتستفيد من الحديث الداخلي.
لكنها لا تفهم: رغم كل هذا، تبقى النماذج الحالية آلات إحصائية، تفتقر إلى الوعي والاستمرارية الحقيقية.
لا تزال تتعلم بشكل مختلف: يتجمد الذكاء الاصطناعي بعد التدريب، بينما الإنسان يتعلم طوال العمر.
كما قال الفيلسوف بولاني قبل عقود: “نحن نعرف أكثر مما نستطيع أن نقوله”. اليوم، يمكننا أن نضيف: والآلة تعلمت ما لا نستطيع أن نفسره.
المستقبل قد يكون في دمج النموذجين: ذكاء اصطناعي يتعلم طوال الوقت مثل الإنسان، لكنه يحتفظ بقدراته الإحصائية الهائلة. وعندها، قد نقترب من “لا وعي” أكثر عمقاً، ليس للآلة فقط، بل لعلاقتنا المتشابكة معها.
المصادر: دراسات وأبحاث علمية





