The Verge→ оригинал

OpenAI adiciona notificações a contatos de confiança no ChatGPT em situações de crise

A OpenAI adicionou ao ChatGPT o Trusted Contact, um recurso para alertar pessoas próximas em uma crise. Se o chatbot detectar discussão sobre automutilação ou s

OpenAI adiciona notificações a contatos de confiança no ChatGPT em situações de crise
Fonte: The Verge. Коллаж: Hamidun News.
◐ Слушать статью

A OpenAI lançou um novo recurso opcional de segurança chamado Trusted Contact para o ChatGPT. Ele permite que usuários adultos designem contatos de confiança — familiares, amigos ou responsáveis — que serão notificados se o sistema detectar sinais de crise psicológica.

Como Funciona

O recurso é direto: um usuário especifica um ou mais contatos de confiança e fornece suas informações de contato. Se o ChatGPT detectar que alguém está discutindo automutilação ou suicídio, o sistema envia notificações para esses contatos. A OpenAI desenvolveu o recurso com base em análise de especialistas: pesquisas mostram que quando uma pessoa está em crise aguda, o apoio de alguém que ela conhece e confia pode ser crítico.

Isto não é uma substituição para ajuda profissional — mas sim um complemento. Trusted Contact é adicionado como mais uma camada de segurança aos mecanismos existentes. Quando um usuário menciona suicídio ou automutilação, o ChatGPT oferece linhas de crise locais (por exemplo, 988 nos EUA).

Agora, a capacidade de alertar contatos de confiança é adicionada a isso.

Opcionalidade como Princípio

Este não é um recurso obrigatório. Os usuários decidem se desejam ativá-lo, quem designar como contatos de confiança e quando desativá-lo. Esta abordagem é crítica para a confiança: saúde mental é uma questão íntima, e nem todos concordarão com monitoramento automático, mesmo pela sua própria segurança.

  • Os usuários têm controle total sobre sua lista de contatos de confiança
  • As notificações são enviadas apenas quando a discussão de crise é detectada
  • O recurso pode ser desativado a qualquer momento

Os contatos receberão não apenas uma notificação, mas informações sobre o que aconteceu e uma lista de recursos para oferecer suporte. A ideia é dar às pessoas uma ferramenta, não induzir pânico.

Contexto: Responsabilidade das Empresas de IA

A OpenAI já trabalhou anteriormente em como os sistemas de IA devem responder a menções de suicídio e automutilação. O equilíbrio aqui é complexo: por um lado, você precisa ajudar alguém em angústia; por outro, você não deve invadir a privacidade ou criar a impressão falsa de que a IA pode substituir a ajuda real. Muitas empresas neste espaço estão experimentando recursos de segurança. Algumas usam chatbots para triagem, outras integram linhas de crise. Trusted Contact é uma ideia que fica em algum lugar no meio: não controle total, mas uma rede de apoio expandida.

"Trusted

Contact é baseado em uma ideia simples e verificada por especialistas: quando alguém pode estar em crise, conectá-lo a alguém que ele conhece e confia pode ter valor real", escreve a OpenAI.

O Que Isto Significa

Isto reflete a crescente responsabilidade das empresas de IA pelo bem-estar dos usuários. O recurso não pretende ser uma cura milagrosa, mas é mais uma ferramenta no arsenal — uma ponte entre a tecnologia e o cuidado humano, entre um chatbot e pessoas que realmente estão prontas para ajudar.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
O que você acha?
Carregando comentários…