OpenAI apresenta plano de proteção para adolescentes na Europa e subsídios EMEA de €500 mil
OpenAI apresentou o European Youth Safety Blueprint para a Europa e nomeou 12 beneficiários do EMEA Youth & Wellbeing Grant de €500 mil. A empresa propõe cinco

OpenAI anunciou duas iniciativas para a região EMEA: o European Youth Safety Blueprint e os primeiros beneficiários do programa EMEA Youth & Wellbeing Grant. A empresa está propondo um framework para regular a IA para adolescentes na Europa e, simultaneamente, destinando €500 mil para projetos práticos para famílias, escolas e organizações de juventude.
Cinco pilares do plano
Em um documento publicado em 5 de maio de 2026, a OpenAI descreve uma abordagem para proteger usuários jovens que deve ser prática e baseada no comportamento real dos adolescentes, em vez de ser restritiva. A ideia é preservar o acesso a ferramentas úteis para educação e criatividade, ao mesmo tempo em que incorpora mecanismos de proteção nelas. A empresa se dirige principalmente aos formuladores de políticas e reguladores europeus, oferecendo não princípios abstratos, mas um conjunto de direções específicas em torno das quais as futuras regras para serviços baseados em IA podem ser construídas.
- Implementação responsável de IA na educação
- Cenários de uso apropriados para a idade com medidas de proteção e verificação de idade sem coleta excessiva de dados
- Políticas de segurança para usuários menores de 18 anos com avaliação e mitigação de riscos
- Proteção contra respostas de IA manipuladoras ou enganosas
- Padrões comuns para controles parentais claros e acessíveis
A OpenAI enfatiza que isso não é um código legal acabado, mas um framework de trabalho para discussão. De acordo com Ann O'Leary, Vice-Presidente de Política Global, os adolescentes de hoje serão a primeira geração para quem a IA faz parte da vida cotidiana e influenciará diretamente o aprendizado, a criatividade e a preparação para o futuro. Portanto, no coração do documento está o equilíbrio: proteger crianças de cenários prejudiciais sem privá-las de ferramentas que já estão se tornando parte da infraestrutura digital da educação e moldando as expectativas de plataforma nos próximos anos.
"Os jovens de hoje serão a primeira geração a crescer com a IA como
parte da vida cotidiana."
Quem recebe as bolsas
A segunda parte do anúncio envolve os primeiros 12 beneficiários do programa EMEA Youth & Wellbeing Grant. O programa foi lançado em janeiro de 2026 com um fundo total de €500 mil. O dinheiro irá para ONGs e organizações de pesquisa na Europa, Oriente Médio e África que trabalham na intersecção de segurança juvenil, bem-estar e IA. Um ponto importante: a OpenAI está financiando não apenas pesquisa de políticas, mas também serviços práticos que interagem com adolescentes, pais, professores e grupos vulneráveis neste momento.
A lista de beneficiários mostra que as apostas estão sendo feitas em cenários muito diferentes. Entre eles estão o Centre for Information Policy Leadership com pesquisa em sistemas de verificação de idade e avaliação de idade baseada em IA, a Ukrainian East Europe Foundation estudando como adolescentes em países afetados por conflitos usam IA para aprendizado e apoio à saúde mental, FSM alemã com ferramentas de alfabetização em IA para pais e educadores, Luma queniana com um tutor de IA para comunidades remotas, e Telefono Azzurro italiana com a plataforma AzzurroChat para bem-estar digital adolescente. Existem também outras direções: avaliação de chatbots como canal para direcionar adolescentes para serviços de crise, recursos para famílias, ajudar meninas de grupos desfavorecidos a dominar habilidades de IA, e sistemas de apoio a vítimas de tráfico humano e violência de gênero.
Em outras palavras, isso não é sobre um único "modo infantil" para modelos, mas sim um conjunto de soluções infraestruturais e sociais onde a IA é vista simultaneamente como risco e ferramenta de ajuda.
Curso mais amplo
A OpenAI conecta separadamente as novas iniciativas à sua política mais ampla de proteção de usuários jovens. A empresa lembra dos princípios comportamentais para modelos para usuários menores de 18 anos, um modelo de previsão de idade, controles parentais e materiais para famílias. A abordagem, como é afirmado, está sendo formada com a participação de especialistas externos, incluindo o Expert Council on Well-Being and AI e a Global Physician Network. Isso importa porque a discussão sobre adolescentes e IA rapidamente vai além das limitações de interface e chega a psicologia, pedagogia, privacidade e direitos digitais.
Na Europa, a OpenAI já trabalha com estados e instituições através do programa Education for Countries e apoia pesquisas da Universidade de Tartu na Estônia sobre a medição de resultados educacionais do uso de IA. Além disso, a empresa estava entre os fundadores da coalizão Beneficial AI for Children e aderiu à declaração do Vaticano sobre os direitos e dignidade das crianças na era da IA. Em outras palavras, o anúncio atual não é um anúncio de bolsa isolado, mas parte de um esforço para se estabelecer na conversa sobre o que a IA segura para menores de idade deve parecer.
O que isto significa
A OpenAI está tentando ocupar duas posições simultaneamente: oferecer aos reguladores europeus seu próprio framework regulatório enquanto simultaneamente investe em projetos locais que testam essas ideias na prática. Para o mercado, isso sinaliza que a segurança adolescente está se tornando uma direção separada na política de IA—com bolsas, padrões, verificação de idade e expectativas mais rigorosas para produtos que entram em escolas e famílias. Para serviços EdTech e equipes de produto, isso significa crescentes requisitos para mecanismos de proteção verificáveis, não apenas promessas gerais de segurança.