The Verge→ original

OpenAI adiciona notificações a contatos de confiança no ChatGPT em situações de crise

A OpenAI adicionou ao ChatGPT o Trusted Contact, um recurso para alertar pessoas próximas em uma crise. Se o chatbot detectar discussão sobre automutilação ou s

OpenAI adiciona notificações a contatos de confiança no ChatGPT em situações de crise
Fonte: The Verge. Коллаж: Hamidun News.
◐ Ouvir artigo

A OpenAI lançou um novo recurso opcional de segurança chamado Trusted Contact para o ChatGPT. Ele permite que usuários adultos designem contatos de confiança — familiares, amigos ou responsáveis — que serão notificados se o sistema detectar sinais de crise psicológica.

Como Funciona

O recurso é direto: um usuário especifica um ou mais contatos de confiança e fornece suas informações de contato. Se o ChatGPT detectar que alguém está discutindo automutilação ou suicídio, o sistema envia notificações para esses contatos. A OpenAI desenvolveu o recurso com base em análise de especialistas: pesquisas mostram que quando uma pessoa está em crise aguda, o apoio de alguém que ela conhece e confia pode ser crítico.

Isto não é uma substituição para ajuda profissional — mas sim um complemento. Trusted Contact é adicionado como mais uma camada de segurança aos mecanismos existentes. Quando um usuário menciona suicídio ou automutilação, o ChatGPT oferece linhas de crise locais (por exemplo, 988 nos EUA).

Agora, a capacidade de alertar contatos de confiança é adicionada a isso.

Opcionalidade como Princípio

Este não é um recurso obrigatório. Os usuários decidem se desejam ativá-lo, quem designar como contatos de confiança e quando desativá-lo. Esta abordagem é crítica para a confiança: saúde mental é uma questão íntima, e nem todos concordarão com monitoramento automático, mesmo pela sua própria segurança.

  • Os usuários têm controle total sobre sua lista de contatos de confiança
  • As notificações são enviadas apenas quando a discussão de crise é detectada
  • O recurso pode ser desativado a qualquer momento

Os contatos receberão não apenas uma notificação, mas informações sobre o que aconteceu e uma lista de recursos para oferecer suporte. A ideia é dar às pessoas uma ferramenta, não induzir pânico.

Contexto: Responsabilidade das Empresas de IA

A OpenAI já trabalhou anteriormente em como os sistemas de IA devem responder a menções de suicídio e automutilação. O equilíbrio aqui é complexo: por um lado, você precisa ajudar alguém em angústia; por outro, você não deve invadir a privacidade ou criar a impressão falsa de que a IA pode substituir a ajuda real. Muitas empresas neste espaço estão experimentando recursos de segurança. Algumas usam chatbots para triagem, outras integram linhas de crise. Trusted Contact é uma ideia que fica em algum lugar no meio: não controle total, mas uma rede de apoio expandida.

"Trusted

Contact é baseado em uma ideia simples e verificada por especialistas: quando alguém pode estar em crise, conectá-lo a alguém que ele conhece e confia pode ter valor real", escreve a OpenAI.

O Que Isto Significa

Isto reflete a crescente responsabilidade das empresas de IA pelo bem-estar dos usuários. O recurso não pretende ser uma cura milagrosa, mas é mais uma ferramenta no arsenal — uma ponte entre a tecnologia e o cuidado humano, entre um chatbot e pessoas que realmente estão prontas para ajudar.

ЖХ
Hamidun News
Notícias de AI sem ruído. Seleção editorial diária de mais de 400 fontes. Produto de Zhemal Khamidun, Head of AI na Alpina Digital.
O que você acha?
Carregando comentários…