OpenAI adiciona notificações a contatos de confiança no ChatGPT em situações de crise
A OpenAI adicionou ao ChatGPT o Trusted Contact, um recurso para alertar pessoas próximas em uma crise. Se o chatbot detectar discussão sobre automutilação ou s

A OpenAI lançou um novo recurso opcional de segurança chamado Trusted Contact para o ChatGPT. Ele permite que usuários adultos designem contatos de confiança — familiares, amigos ou responsáveis — que serão notificados se o sistema detectar sinais de crise psicológica.
Como Funciona
O recurso é direto: um usuário especifica um ou mais contatos de confiança e fornece suas informações de contato. Se o ChatGPT detectar que alguém está discutindo automutilação ou suicídio, o sistema envia notificações para esses contatos. A OpenAI desenvolveu o recurso com base em análise de especialistas: pesquisas mostram que quando uma pessoa está em crise aguda, o apoio de alguém que ela conhece e confia pode ser crítico.
Isto não é uma substituição para ajuda profissional — mas sim um complemento. Trusted Contact é adicionado como mais uma camada de segurança aos mecanismos existentes. Quando um usuário menciona suicídio ou automutilação, o ChatGPT oferece linhas de crise locais (por exemplo, 988 nos EUA).
Agora, a capacidade de alertar contatos de confiança é adicionada a isso.
Opcionalidade como Princípio
Este não é um recurso obrigatório. Os usuários decidem se desejam ativá-lo, quem designar como contatos de confiança e quando desativá-lo. Esta abordagem é crítica para a confiança: saúde mental é uma questão íntima, e nem todos concordarão com monitoramento automático, mesmo pela sua própria segurança.
- Os usuários têm controle total sobre sua lista de contatos de confiança
- As notificações são enviadas apenas quando a discussão de crise é detectada
- O recurso pode ser desativado a qualquer momento
Os contatos receberão não apenas uma notificação, mas informações sobre o que aconteceu e uma lista de recursos para oferecer suporte. A ideia é dar às pessoas uma ferramenta, não induzir pânico.
Contexto: Responsabilidade das Empresas de IA
A OpenAI já trabalhou anteriormente em como os sistemas de IA devem responder a menções de suicídio e automutilação. O equilíbrio aqui é complexo: por um lado, você precisa ajudar alguém em angústia; por outro, você não deve invadir a privacidade ou criar a impressão falsa de que a IA pode substituir a ajuda real. Muitas empresas neste espaço estão experimentando recursos de segurança. Algumas usam chatbots para triagem, outras integram linhas de crise. Trusted Contact é uma ideia que fica em algum lugar no meio: não controle total, mas uma rede de apoio expandida.
"Trusted
Contact é baseado em uma ideia simples e verificada por especialistas: quando alguém pode estar em crise, conectá-lo a alguém que ele conhece e confia pode ter valor real", escreve a OpenAI.
O Que Isto Significa
Isto reflete a crescente responsabilidade das empresas de IA pelo bem-estar dos usuários. O recurso não pretende ser uma cura milagrosa, mas é mais uma ferramenta no arsenal — uma ponte entre a tecnologia e o cuidado humano, entre um chatbot e pessoas que realmente estão prontas para ajudar.