OpenAI Blog→ оригинал

OpenAI presenta un plan de protección para adolescentes en Europa y subvenciones EMEA por €500.000

OpenAI presentó el European Youth Safety Blueprint para Europa y nombró a 12 beneficiarios del EMEA Youth & Wellbeing Grant de €500.000. La compañía propone cin

OpenAI presenta un plan de protección para adolescentes en Europa y subvenciones EMEA por €500.000
Fuente: OpenAI Blog. Коллаж: Hamidun News.
◐ Слушать статью

OpenAI ha anunciado dos iniciativas para la región EMEA: el European Youth Safety Blueprint y los primeros beneficiarios del programa EMEA Youth & Wellbeing Grant. La empresa está proponiendo un marco para regular la IA para adolescentes en Europa mientras dirige simultáneamente €500 mil hacia proyectos prácticos para familias, escuelas y organizaciones juveniles.

Cinco pilares del plan

En un documento publicado el 5 de mayo de 2026, OpenAI describe un enfoque para proteger a los usuarios jóvenes que debe ser práctico y basado en el comportamiento real de los adolescentes, en lugar de ser restrictivo. La idea es preservar el acceso a herramientas útiles para la educación y la creatividad mientras se construyen mecanismos de protección en ellas. La empresa se dirige principalmente a los formuladores de políticas y reguladores europeos, ofreciendo no principios abstractos sino un conjunto de direcciones específicas alrededor de las cuales se pueden construir futuras reglas para servicios basados en IA.

  • Implementación responsable de IA en educación
  • Escenarios de uso apropiados para la edad con medidas de protección y verificación de edad sin recopilación excesiva de datos
  • Políticas de seguridad para usuarios menores de 18 años con evaluación y mitigación de riesgos
  • Protección contra respuestas de IA manipuladoras o engañosas
  • Estándares comunes para controles parentales claros y accesibles

OpenAI enfatiza que esto no es un código legal terminado sino un marco de trabajo para la discusión. Según Ann O'Leary, Vicepresidenta de Política Global, los adolescentes de hoy serán la primera generación para quienes la IA es parte de la vida cotidiana e influirá directamente en el aprendizaje, la creatividad y la preparación para el futuro. Por lo tanto, en el corazón del documento está el equilibrio: proteger a los niños de escenarios dañinos sin privarse de herramientas que ya están convirtiéndose en parte de la infraestructura digital de la educación y dando forma a las expectativas de plataformas en los próximos años.

"Los jóvenes de hoy serán la primera generación que crecerá con la IA

como parte de la vida cotidiana."

Quién recibe las subvenciones

La segunda parte del anuncio involucra a los primeros 12 beneficiarios del programa EMEA Youth & Wellbeing Grant. El programa se lanzó en enero de 2026 con un fondo total de €500 mil. El dinero irá a ONG y organizaciones de investigación en Europa, Oriente Medio y África que trabajan en la intersección de seguridad juvenil, bienestar e IA. Un punto importante: OpenAI está financiando no solo investigación de políticas sino también servicios prácticos que interactúan con adolescentes, padres, maestros y grupos vulnerables en este momento.

La lista de beneficiarios muestra que las apuestas se están haciendo en escenarios muy diferentes. Entre ellos están el Centre for Information Policy Leadership con investigación en sistemas de verificación de edad y evaluación de edad basada en IA, la Ukrainian East Europe Foundation estudiando cómo los adolescentes en países afectados por conflictos utilizan IA para el aprendizaje y el apoyo a la salud mental, FSM alemana con herramientas de alfabetización en IA para padres y educadores, Luma keniana con un tutor de IA para comunidades remotas, y Telefono Azzurro italiana con la plataforma AzzurroChat para el bienestar digital adolescente. También hay otras direcciones: evaluación de chatbots como canal para dirigir adolescentes a servicios de crisis, recursos para familias, ayudar a niñas de grupos desfavorecidos a dominar habilidades de IA, y sistemas de apoyo a víctimas de trata de personas y violencia de género.

En otras palabras, esto no es sobre un único "modo infantil" para modelos, sino un conjunto de soluciones infraestructurales y sociales donde la IA se ve simultáneamente como riesgo y como herramienta de ayuda.

Curso más amplio

OpenAI conecta por separado las nuevas iniciativas con su política más amplia sobre la protección de usuarios jóvenes. La empresa recuerda los principios de comportamiento para modelos para usuarios menores de 18 años, un modelo de predicción de edad, controles parentales y materiales para familias. El enfoque, como se afirma, se está formando con la participación de expertos externos, incluyendo el Expert Council on Well-Being and AI y la Global Physician Network. Esto importa porque la discusión sobre adolescentes e IA rápidamente va más allá de las limitaciones de interfaz y se reduce a psicología, pedagogía, privacidad y derechos digitales.

En Europa, OpenAI ya trabaja con estados e instituciones a través del programa Education for Countries y apoya la investigación de la Universidad de Tartu en Estonia sobre la medición de resultados educativos del uso de IA. Además, la empresa fue uno de los fundadores de la coalición Beneficial AI for Children y se unió a la declaración del Vaticano sobre los derechos y la dignidad de los niños en la era de la IA. En otras palabras, el anuncio actual no es un anuncio de subvención aislado sino parte de un esfuerzo por establecerse en la conversación sobre cómo debe verse la IA segura para menores de edad.

Lo que esto significa

OpenAI está tratando de ocupar dos posiciones simultáneamente: ofrecer a los reguladores europeos su propio marco regulatorio mientras invierte simultáneamente en proyectos locales que prueban estas ideas en la práctica. Para el mercado, esto señala que la seguridad adolescente se está convirtiendo en una dirección separada en la política de IA—con subvenciones, estándares, verificación de edad y expectativas más estrictas para productos que entran en escuelas y familias. Para servicios EdTech y equipos de producto, esto significa requisitos crecientes para mecanismos de protección verificables, no solo promesas generales de seguridad.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
¿Qué te parece?
Cargando comentarios…