OpenAI تعلن خطة لحماية المراهقين في أوروبا ومنح EMEA بقيمة 500 ألف يورو
قدمت OpenAI مبادرة European Youth Safety Blueprint لأوروبا وسمّت 12 مستفيدًا من EMEA Youth & Wellbeing Grant بقيمة 500 ألف يورو. وتقترح الشركة خمس ركائز لحماية

أعلنت OpenAI عن مبادرتين للمنطقة EMEA: خطة السلامة الأوروبية للشباب (European Youth Safety Blueprint) والمستقبلين الأوائل لبرنامج منح EMEA للشباب والرفاهية. تقترح الشركة إطار عمل لتنظيم الذكاء الاصطناعي للمراهقين في أوروبا مع توجيه 500 ألف يورو في نفس الوقت نحو مشاريع عملية للعائلات والمدارس والمنظمات الشبابية.
الأركان الخمسة للخطة
في وثيقة نُشرت في 5 مايو 2026، تصف OpenAI نهجًا لحماية المستخدمين الصغار يجب أن يكون عمليًا وقائمًا على السلوك الفعلي للمراهقين، بدلاً من أن يكون مقيدًا. الفكرة هي الحفاظ على الوصول إلى الأدوات المفيدة للتعليم والإبداع مع بناء آليات حماية فيها. تخاطب الشركة صناع السياسات والمنظمين الأوروبيين قبل كل شيء، مقدمة ليس مبادئ مجردة بل مجموعة من الاتجاهات المحددة التي يمكن حول حولها بناء قواعد مستقبلية لخدمات قائمة على الذكاء الاصطناعي.
- التنفيذ المسؤول للذكاء الاصطناعي في التعليم
- سيناريوهات الاستخدام المناسبة للعمر مع تدابير حماية والتحقق من العمر دون جمع بيانات مفرط
- سياسات السلامة للمستخدمين دون سن 18 سنة مع تقييم وتخفيف المخاطر
- الحماية من ردود الذكاء الاصطناعي التلاعبية أو المضللة
- معايير مشتركة لعناصر تحكم الوالدين الواضحة والميسرة
تؤكد OpenAI أن هذا ليس قانونًا نهائيًا بل إطار عمل للنقاش. وفقًا لآن أوليري، نائبة الرئيس للسياسة العالمية، سيكون المراهقون اليوم أول جيل يشكل الذكاء الاصطناعي جزءًا من حياتهم اليومية ويؤثر مباشرة على التعلم والإبداع والتحضير للمستقبل. لذلك، في قلب الوثيقة يوجد التوازن: حماية الأطفال من السيناريوهات الضارة دون حرمانهم من الأدوات التي أصبحت بالفعل جزءًا من البنية التحتية الرقمية للتعليم وتشكل توقعات المنصات في السنوات القادمة.
«سيكون الشباب اليوم أول جيل ينشأ مع الذكاء الاصطناعي كجزء من الحياة اليومية.»
من يحصل على المنح
يتعلق الجزء الثاني من الإعلان بأول 12 متلقيًا لمنح برنامج EMEA للشباب والرفاهية. تم إطلاق البرنامج في يناير 2026 برصيد إجمالي قدره 500 ألف يورو. ستذهب الأموال إلى المنظمات غير الحكومية ومنظمات البحث في أوروبا والشرق الأوسط وأفريقيا التي تعمل في تقاطع سلامة الشباب والرفاهية والذكاء الاصطناعي. نقطة مهمة: OpenAI تمول ليس فقط الأبحاث السياسية بل أيضًا الخدمات العملية التي تتفاعل مع المراهقين والآباء والمعلمين والمجموعات الضعيفة الآن.
تُظهر قائمة المستقبلين أن الرهانات يتم وضعها على سيناريوهات مختلفة جدًا. من بينهم مركز سياسة المعلومات برحث في أنظمة التحقق من العمر وتقييم العمر القائم على الذكاء الاصطناعي، مؤسسة أوروبا الشرقية الأوكرانية تدرس كيف يستخدم المراهقون في الدول المتضررة من الصراعات الذكاء الاصطناعي للتعلم ودعم الصحة العقلية، FSM الألمانية بأدوات محو الأمية في الذكاء الاصطناعي للآباء والمعلمين، Luma الكينية بمدرس ذكاء اصطناعي للمجتمعات النائية، و Telefono Azzurro الإيطالية بمنصة AzzurroChat للرفاهية الرقمية للمراهقين. هناك أيضًا اتجاهات أخرى: تقييم روبوتات الدردشة كقناة لتوجيه المراهقين نحو خدمات الأزمات، موارد للعائلات، مساعدة الفتيات من المجموعات المحرومة على إتقان مهارات الذكاء الاصطناعي، وأنظمة دعم ضحايا الاتجار بالبشر والعنف الجنساني.
بعبارة أخرى، هذا ليس حول "وضع الأطفال" الواحد للنماذج، بل مجموعة من الحلول البنية التحتية والاجتماعية حيث يُنظر إلى الذكاء الاصطناعي في نفس الوقت كخطر وأداة مساعدة.
المسار الأوسع
تربط OpenAI بشكل منفصل المبادرات الجديدة بسياستها الأوسع لحماية المستخدمين الصغار. تُذكّر الشركة بمبادئ السلوك للنماذج للمستخدمين دون سن 18، ونموذج التنبؤ بالعمر، وعناصر التحكم الأبوية، والمواد للعائلات. يتم صياغة النهج، كما هو مؤكد، بمشاركة خبراء خارجيين، بما في ذلك المجلس الخبراء للرفاهية والذكاء الاصطناعي والشبكة العالمية للأطباء. هذا مهم لأن النقاش حول المراهقين والذكاء الاصطناعي يتجاوز بسرعة القيود على الواجهة ويتعلق بعلم النفس والتربية والخصوصية والحقوق الرقمية.
في أوروبا، تعمل OpenAI بالفعل مع الدول والمؤسسات من خلال برنامج التعليم للدول وتدعم أبحاث جامعة تارتو في إستونيا بشأن قياس النتائج التعليمية لاستخدام الذكاء الاصطناعي. بالإضافة إلى ذلك، كانت الشركة من بين مؤسسي تحالف الذكاء الاصطناعي المفيد للأطفال والتحقت بإعلان الفاتيكان بشأن حقوق وكرامة الأطفال في عصر الذكاء الاصطناعي. بعبارة أخرى، الإعلان الحالي ليس إعلانًا منحة معزولًا بل جزء من محاولة لتأسيس نفسها في الحوار حول كيف يجب أن يبدو الذكاء الاصطناعي الآمن للقصّر.
ماذا يعني هذا
تحاول OpenAI احتلال منصبين في نفس الوقت: تقديم إطار عمل تنظيمي خاص بها للمنظمين الأوروبيين بينما تستثمر في نفس الوقت في مشاريع محلية تختبر هذه الأفكار في الممارسة. بالنسبة للسوق، يُشير هذا إلى أن سلامة المراهقين تصبح اتجاهًا منفصلًا في سياسة الذكاء الاصطناعي—مع المنح والمعايير والتحقق من العمر والتوقعات الأكثر صرامة للمنتجات التي تدخل المدارس والعائلات. بالنسبة لخدمات EdTech وفرق المنتجات، هذا يعني متطلبات متزايدة لآليات حماية قابلة للتحقق منها، وليس فقط الوعود العامة بالسلامة.