OpenAI présente un plan de protection des adolescents en Europe et des subventions EMEA de 500 000 €
OpenAI a présenté le European Youth Safety Blueprint pour l'Europe et nommé 12 bénéficiaires de l'EMEA Youth & Wellbeing Grant de 500 000 €. L'entreprise propos

OpenAI a annoncé deux initiatives pour la région EMEA : le European Youth Safety Blueprint et les premiers bénéficiaires du programme EMEA Youth & Wellbeing Grant. L'entreprise propose un cadre pour réglementer l'IA pour les adolescents en Europe tout en dirigeant simultanément €500 mille vers des projets pratiques pour les familles, les écoles et les organisations de jeunesse.
Cinq piliers du plan
Dans un document publié le 5 mai 2026, OpenAI décrit une approche pour protéger les jeunes utilisateurs qui doit être pratique et basée sur le comportement réel des adolescents, plutôt que restrictive. L'idée est de préserver l'accès à des outils utiles pour l'éducation et la créativité tout en intégrant des mécanismes de protection en eux. L'entreprise s'adresse principalement aux décideurs politiques et régulateurs européens, offrant non pas des principes abstraits mais un ensemble de directions spécifiques autour desquelles de futures règles pour les services basés sur l'IA peuvent être construites.
- Mise en œuvre responsable de l'IA dans l'éducation
- Scénarios d'utilisation adaptés à l'âge avec des mesures de protection et une vérification de l'âge sans collecte excessive de données
- Politiques de sécurité pour les utilisateurs de moins de 18 ans avec évaluation et atténuation des risques
- Protection contre les réponses d'IA manipulatrices ou trompeuses
- Normes communes pour des contrôles parentaux clairs et accessibles
OpenAI souligne qu'il ne s'agit pas d'un code juridique finalisé mais d'un cadre de travail pour la discussion. Selon Ann O'Leary, Vice-présidente de la Politique mondiale, les adolescents d'aujourd'hui seront la première génération pour laquelle l'IA fait partie de la vie quotidienne et influencera directement l'apprentissage, la créativité et la préparation à l'avenir. Par conséquent, au cœur du document se trouve l'équilibre : protéger les enfants contre les scénarios nuisibles sans les priver d'outils qui deviennent déjà partie intégrante de l'infrastructure numérique de l'éducation et modèlent les attentes des plates-formes dans les années à venir.
«
Les jeunes d'aujourd'hui seront la première génération à grandir avec l'IA comme partie intégrante de la vie quotidienne. »
Qui reçoit les subventions
La deuxième partie de l'annonce concerne les 12 premiers bénéficiaires du programme EMEA Youth & Wellbeing Grant. Le programme a été lancé en janvier 2026 avec un fonds total de €500 mille. L'argent ira aux ONG et aux organisations de recherche en Europe, au Moyen-Orient et en Afrique travaillant à l'intersection de la sécurité des jeunes, du bien-être et de l'IA. Un point important : OpenAI finance non seulement la recherche politique mais aussi des services pratiques qui interagissent avec les adolescents, les parents, les enseignants et les groupes vulnérables dès maintenant.
La liste des bénéficiaires montre que les paris sont placés sur des scénarios très différents. Parmi eux se trouvent le Centre for Information Policy Leadership avec une recherche sur les systèmes de vérification de l'âge et l'évaluation de l'âge basée sur l'IA, la Ukrainian East Europe Foundation étudiant comment les adolescents dans les pays touchés par le conflit utilisent l'IA pour l'apprentissage et le soutien à la santé mentale, FSM allemande avec des outils d'alphabétisation en IA pour les parents et les éducateurs, Luma kenyane avec un tuteur IA pour les communautés éloignées, et Telefono Azzurro italienne avec la plateforme AzzurroChat pour le bien-être numérique des adolescents. Il y a aussi d'autres directions : l'évaluation des chatbots comme canal pour diriger les adolescents vers les services d'urgence, des ressources pour les familles, l'aide aux filles de groupes défavorisés à maîtriser les compétences en IA, et des systèmes de soutien aux victimes de la traite des êtres humains et de la violence sexiste.
En d'autres termes, il ne s'agit pas d'un seul « mode enfants » pour les modèles, mais plutôt d'un ensemble de solutions infrastructurelles et sociales où l'IA est considérée simultanément comme un risque et comme un outil d'aide.
Cours plus large
OpenAI connecte séparément les nouvelles initiatives à sa politique plus large de protection des jeunes utilisateurs. L'entreprise rappelle les principes de comportement pour les modèles pour les utilisateurs de moins de 18 ans, un modèle de prédiction de l'âge, les contrôles parentaux et les matériaux pour les familles. L'approche, selon ce qui est avancé, est formée avec la participation d'experts externes, y compris le Expert Council on Well-Being and AI et le Global Physician Network. C'est important car la discussion sur les adolescents et l'IA va rapidement au-delà des limitations d'interface et se réduit à la psychologie, la pédagogie, la confidentialité et les droits numériques.
En Europe, OpenAI travaille déjà avec les États et les institutions par le biais du programme Education for Countries et soutient la recherche de l'Université de Tartu en Estonie sur la mesure des résultats éducatifs de l'utilisation de l'IA. De plus, l'entreprise a été parmi les fondateurs de la coalition Beneficial AI for Children et a adhéré à la déclaration du Vatican sur les droits et la dignité des enfants à l'ère de l'IA. En d'autres termes, l'annonce actuelle n'est pas une annonce de subvention isolée mais une partie des efforts pour s'établir dans la conversation sur l'apparence que devrait avoir l'IA sûre pour les mineurs.
Ce que cela signifie
OpenAI essaie d'occuper simultanément deux positions : offrir aux régulateurs européens son propre cadre réglementaire tout en investissant simultanément dans des projets locaux qui testent ces idées dans la pratique. Pour le marché, cela signale que la sécurité des adolescents devient une direction séparée dans la politique de l'IA—avec des subventions, des normes, une vérification de l'âge et des attentes plus strictes pour les produits qui entrent dans les écoles et les familles. Pour les services EdTech et les équipes de produits, cela signifie des exigences croissantes pour des mécanismes de protection vérifiables, pas seulement des promesses générales de sécurité.