OpenAI ampliou as proteções do ChatGPT com um recurso de alerta de contato
A OpenAI ampliou as proteções no ChatGPT com o novo recurso Trusted Contact. Quando o usuário discute autolesão, o sistema pode alertar um contato de confiança.

OpenAI está expandindo seus esforços para proteger usuários do ChatGPT em situações em que conversas podem envolver risco de automutilação. A empresa introduziu um novo recurso Trusted Contact que permite notificação automática de uma pessoa de confiança sobre uma ameaça potencial.
Como funciona o Trusted Contact
O recurso permite que usuários designem previamente um contato — uma pessoa que deve ser notificada se sinais de risco de automutilação forem detectados em uma conversa do ChatGPT. Se o sistema determinar que um usuário está discutindo possível automutilação ou pensamentos suicidas, ele enviará ao contato confiável uma notificação com informações sobre o perigo potencial. O mecanismo usa modelos da OpenAI para analisar texto em tempo real.
A notificação contém informações de risco, mas sem o contexto completo da conversa — para proteger a privacidade do usuário. O contato confiável receberá um alerta direcionado e links para recursos de apoio. O recurso é completamente opcional: o usuário deve ativá-lo por conta própria e escolher em quem confiar as notificações.
Isso significa que o sistema não enviará alertas sem consentimento explícito.
Por que isso importa para plataformas
A saúde mental do usuário é uma preocupação crescente para empresas que criam sistemas de IA. Pesquisas mostram que pessoas em situações de crise frequentemente recorrem ao ChatGPT com perguntas que não estão prontas para discutir com amigos, pais ou médicos. O anonimato e a falta de julgamento tornam o assistente de IA atraente para essas conversas.
OpenAI busca equilibrar a acessibilidade do serviço com responsabilidade perante usuários vulneráveis. Trusted Contact não é o primeiro mecanismo assim. A empresa já oferece integração com linhas de ajuda de saúde mental, mensagens de aviso em situações críticas e informações sobre recursos de apoio.
A abordagem se alinha com tendências globais. Outras grandes plataformas (Meta, TikTok, Discord) também estão desenvolvendo ferramentas para identificar risco e alertar entes queridos. Isso está se tornando prática padrão na indústria.
Onde isso se encaixa na estratégia da OpenAI
OpenAI investe em várias direções para proteção do usuário:
- Detecção automática de situações críticas em conversas por meio de modelos de ML
- Links integrados para linhas de ajuda, consultores e comunidades de apoio
- Materiais educacionais sobre saúde mental e recursos disponíveis
- Notificações e recomendações para pais de usuários menores
- Parcerias com organizações de apoio (NAMI, SAMHSA, Crisis Text Line)
Trusted Contact foi especificamente projetado para usuários que reconhecem o risco e querem uma rede de segurança — para que um ente querido saiba do problema em um estágio inicial e possa oferecer apoio.
O que isso significa
Trusted Contact demonstra a responsabilidade crescente das empresas de IA em relação à segurança do usuário. O mecanismo não substitui ajuda profissional, mas pode economizar tempo em um momento crítico — quando uma pessoa de confiança fica sabendo do problema e pode intervir. Para dezenas de milhões de usuários do ChatGPT, isso adiciona uma camada de proteção ao ecossistema da plataforma.