تكنولوجيا
مؤسسة أوبن إيه آي الخيرية تكشف عن خارطة طريق بقيمة 25 مليار دولار
تقرير فريق أخبار تك
من إطلاق تشات جي بي تي إلى معالجة “أصعب مشكلات البشرية”
بعد أشهر من إعادة هيكلتها المالية، كشفت مؤسسة أوبن إيه آي الخيرية (OpenAI Foundation) عن خطتها الطموحة لاستثمار 25 مليار دولار على مدى السنوات المقبلة، منها مليار دولار خلال العام الجاري، في مجالات تتراوح بين مكافحة الأمراض المستعصية وبناء أنظمة أمان للنماذج الذكية وحماية الأطفال من المخاطر الرقمية .
الإعلان، الذي نشره بريت تايلور (Bret Taylor) رئيس مجلس أمناء المؤسسة في منشور مدونة اليوم، يأتي في وقت حساس، حيث تتصاعد المخاوف من “الانفجار الكبير ” للذكاء الاصطناعي وتداعياته على العمل والصحة والأمن . المؤسسة، التي تمتلك حصة في شركة أوبن إيه آي الربحية بعد إعادة الهيكلة في أكتوبر الماضي، تضع لنفسها هدفاً طموحاً: “ضمان أن تؤدي هذه التقنيات إلى تقدم حقيقي للناس” .
“مرونة الذكاء الاصطناعي”.. مفهوم جديد في عالم النماذج
ماذا يحدث عندما يفشل الذكاء الاصطناعي في تحقيق أهدافه؟
في قلب استراتيجية المؤسسة، مفهوم جديد أطلقت عليه اسم “مرونة الذكاء الاصطناعي” (AI Resilience) . بحسب بريان جاكسون (Brian Jackson)، مدير الأبحاث الرئيسي في “إنفو-تك ريسيرش غروب” (Info-Tech Research Group)، فإن هذا المفهوم يعالج سؤالاً محورياً: “هل سيستمر الذكاء الاصطناعي في تحقيق الأهداف التي قصدها له البشر، أم سيفشل بطريقة ما؟” .
جاكسون يشرح أن هذا يشمل احتمالين: الأول، أخطاء تجعل النماذج تقصر عن تحقيق الهدف المنشود. الثاني والأخطر، “اعتبارات السلامة التي قد تقودنا في اتجاه سيء، فنسبب ضرراً ونحن ننوي المساعدة” .
لمواجهة هذه المخاطر، تحدد المؤسسة ثلاثة مجالات تشهد مخاوف “واضحة بالفعل” :
- الأمن الحيوي (Biosecurity) : منع التهديدات البيولوجية، سواء كانت طبيعية أو “ممكنة بالذكاء الاصطناعي”. تشمل الخطة دعم اختبارات وتقييمات مستقلة، وتطوير معايير صناعية “أقوى وأحدث”، وتمويل أبحاث للكشف المبكر عن مشكلات سلامة النماذج.
- سلامة النماذج (Model Safety) : اختبار وتقييم النماذج قبل نشرها على نطاق واسع.
- تأثير الذكاء الاصطناعي على الأطفال والشباب : استثمار في أبحاث قائمة على البيانات، وبناء ضمانات لتعزيز “التفاعلات المفيدة” .
معركة الزهايمر و”البيانات المفتوحة”
25 مليار دولار للصحة العامة
واحدة من أكثر المبادرات إثارة للاهتمام هي تركيز المؤسسة على علوم الحياة وعلاج الأمراض، وهو ما وصفه تايلور بأنه من “أصعب مشكلات البشرية”. المؤسسة تخطط للاستثمار في ثلاثة مسارات محددة :
أولاً: البيانات العامة للصحة (Public Data for Health) – ستساعد المؤسسة الشركاء في بناء “مجموعات بيانات مفتوحة وعالية الجودة”، بل وحتى فتح مجموعات كانت مغلقة سابقاً، لدعم مشاريع البحث الطبي. هذا يعكس تحولاً فلسفياً: البيانات الطبية، التي غالباً ما تكون محصورة في مستشفيات وشركات أدوية، قد تصبح قابلة للمشاركة على نطاق واسع لتدريب نماذج الذكاء الاصطناعي.
ثانياً: الذكاء الاصطناعي لمرض الزهايمر (AI for Alzheimer‘s) – وصف تايلور هذا المرض بأنه “واحد من أصعب المشكلات في الطب”. الهدف هو استخدام قدرة الذكاء الاصطناعي على الاستدلال عبر البيانات المعقدة لاستخلاص رؤى جديدة. الخطة تشمل الشراكة مع مؤسسات بحثية لتحديد مسارات المرض، واكتشاف المؤشرات الحيوية (Biomarkers) للتجارب السريرية والرعاية، وتسريع تطوير العلاجات الشخصية. قد يشمل العمل أيضاً إعادة استخدام جزيئات معتمدة بالفعل من إدارة الغذاء والدواء الأميركية (FDA) لأغراض جديدة.
ثالثاً: تسريع التقدم في الأمراض عالية الوفيات والأعباء – تهدف المؤسسة إلى خفض تكلفة ومخاطر تطوير أو إعادة توظيف علاجات للأمراض التي تعاني من نقص التمويل البحثي. ستجمع المؤسسة بين خبراء الذكاء الاصطناعي وخبراء الأمراض لتحديد أفضل السبل لدعم العلماء بأدوات الذكاء الاصطناعي.
بريان جاكسون علق على هذه المبادرة قائلاً: “ما يعجبني في بيان أوبن إيه آي هذا هو أنهم قدموا لنا مجالات محددة حقاً يعتقدون أنهم سيحدثون فيها فرقاً”. وأضاف أن هذه البرامج الطبية “معقدة للغاية ومتخصصة”، حيث توجد بيانات ضخمة من ملايين المصابين، لكن القدرة على استخلاص رؤى من هذه البيانات محدودة. “يرون الكثير من البيانات. يرون هذا القيد الواضح. هذا درس جيد يمكن تطبيقه من وجهة نظر المؤسسات: أين لديك الكثير من البيانات ولكن ليس لديك الكثير من القدرة على إجراء الاستدلال؟” .
دروس لمديري التكنولوجيا والمؤسسات
نموذج لتحديد أولويات مشاريع الذكاء الاصطناعي
يرى جاكسون أن بيان المؤسسة يحمل دروساً مهمة لقادة التكنولوجيا في الشركات. أولها، كيفية تحديد أولويات مشاريع الذكاء الاصطناعي. بدلاً من الاندفاع وراء كل اتجاه جديد، يجب على المؤسسات التركيز على المجالات التي يمكنها تحقيق أكبر تأثير. جاكسون يلاحظ: “لا يزال الكثير من المؤسسات تقول: ‘أين نحصل على عائد استثمارنا في الذكاء الاصطناعي، وكيف ننظم أنفسنا لضمان تركيزنا على الاستفادة من الذكاء الاصطناعي بأفضل قيمة ممكنة؟'” .
بناء ثقافة مشاركة البيانات
الدرس الثاني هو بناء “ثقافة البيانات” ومشاركة الخبرات الميدانية. المؤسسة تعمل على إنشاء “بيئة آمنة حيث يمكننا مشاركة البيانات والاستفادة منها جميعاً”. هذا يتناقض مع النموذج التقليدي في المؤسسات، التي لا تزال “معزولة أو حريصة على بياناتها”، وغالباً لا تنظر إليها بشكل شامل، حتى عبر الأقسام الداخلية.
يقول جاكسون: “عندما نجمع خبراتنا الميدانية المختلفة معاً، نخلق قيمة أكبر من مجموع أجزائها” .
السياق الأوسع.. إعادة هيكلة أوبن إيه آي
“فصل” الربحي عن الخيري
هذا الإعلان يأتي بعد إتمام عملية إعادة الهيكلة في أكتوبر 2025، والتي كانت مثيرة للجدل. بموجب الاتفاق، أصبحت مؤسسة أوبن إيه آي الخيرية (OpenAI Foundation) هي المالك الحصري للأسهم في شركة أوبن إيه آي الربحية الجديدة (OpenAI PBC)، وهي شركة منفعة عامة (Public Benefit Corporation) ملزمة قانوناً بتحقيق التوازن بين الربح والمصلحة العامة .
بموجب هذا الهيكل، يتدفق جزء من أرباح الشركة الربحية إلى المؤسسة الخيرية، التي بدورها تستثمرها في المجالات التي أعلنت عنها اليوم. هذا النموذج الفريد يهدف إلى حل معضلة كانت تؤرق المطورين: كيف يمكن تمويل أبحاث الذكاء الاصطناعي الأساسية (غير المربحة بالضرورة) مع الاستمرار في تطوير المنتجات التجارية التي يحتاجها السوق؟ .
خلاصة: نموذج جديد للذكاء الاصطناعي المسؤول
ما تعلنه مؤسسة أوبن إيه آي اليوم ليس مجرد إعلان عن استثمارات. إنه نموذج جديد للعلاقة بين الربح والمصلحة العامة في عالم الذكاء الاصطناعي. في وقت تتهم فيه شركات التكنولوجيا الكبرى بإهمال السلامة لصالح النمو السريع، تضع أوبن إيه آي معياراً قد يكون له تأثير كبير على الصناعة.
كما لاحظ براين جاكسون، فإن الرسالة واضحة: “نحن في بداية ما يمكن للذكاء الاصطناعي تحقيقه. الفرصة – والمسؤولية – هي ضمان أن تؤدي هذه التقنيات إلى تقدم حقيقي للناس” .