The Verge→ original

OpenAI ajoute des notifications aux contacts de confiance dans ChatGPT en cas de crise

OpenAI a ajouté Trusted Contact à ChatGPT, une fonction pour alerter les proches en cas de crise. Si le chatbot détecte une discussion sur l'automutilation ou l

OpenAI ajoute des notifications aux contacts de confiance dans ChatGPT en cas de crise
Source : The Verge. Collage: Hamidun News.
◐ Écouter l'article

OpenAI a lancé une nouvelle fonctionnalité de sécurité optionnelle appelée Trusted Contact pour ChatGPT. Elle permet aux utilisateurs adultes de désigner des contacts de confiance — des proches, des amis ou des tuteurs — qui seront notifiés si le système détecte des signes de crise psychologique.

Comment Ça Fonctionne

La fonctionnalité est directe : un utilisateur spécifie un ou plusieurs contacts de confiance et fournit leurs informations de contact. Si ChatGPT détecte que quelqu'un discute d'automutilation ou de suicide, le système envoie des notifications à ces contacts. OpenAI a développé la fonctionnalité sur la base d'une analyse d'experts : la recherche montre que lorsqu'une personne est en crise aiguë, le soutien de quelqu'un qu'elle connaît et en qui elle a confiance peut être critique.

Ce n'est pas un remplacement pour l'aide professionnelle — plutôt un complément. Trusted Contact est ajouté comme une autre couche de sécurité aux mécanismes existants. Quand un utilisateur mentionne le suicide ou l'automutilation, ChatGPT propose des lignes de crise locales (par exemple, 988 aux États-Unis).

Maintenant, la capacité à alerter les contacts de confiance est ajoutée à cela.

L'Optionalité comme Principe

Ce n'est pas une fonctionnalité obligatoire. Les utilisateurs décident s'ils souhaitent l'activer, qui désigner comme contacts de confiance et quand la désactiver. Cette approche est critique pour la confiance : la santé mentale est une question intime, et tout le monde ne sera pas d'accord avec une surveillance automatique, même pour sa propre sécurité.

  • Les utilisateurs ont un contrôle total sur leur liste de contacts de confiance
  • Les notifications ne sont envoyées que lorsqu'une discussion de crise est détectée
  • La fonctionnalité peut être désactivée à tout moment

Les contacts recevront non seulement une notification, mais aussi des informations sur ce qui s'est passé et une liste de ressources pour offrir un soutien. L'idée est de donner aux gens un outil, pas de les paniquer.

Contexte : Responsabilité des Entreprises d'IA

OpenAI a déjà travaillé sur la façon dont les systèmes d'IA devraient réagir aux mentions de suicide et d'automutilation. L'équilibre ici est complexe : d'un côté, vous devez aider quelqu'un en détresse ; de l'autre, vous ne devez pas violer la vie privée ou créer une fausse impression que l'IA peut remplacer l'aide réelle. De nombreuses entreprises dans cet espace expérimentent des fonctionnalités de sécurité. Certaines utilisent des chatbots pour le dépistage, d'autres intègrent des lignes de crise. Trusted Contact est une idée qui se situe quelque part au milieu : pas de contrôle total, mais un réseau de soutien élargi.

«

Trusted Contact est construite sur une idée simple et vérifiée par des experts : quand quelqu'un peut être en crise, le connecter à quelqu'un qu'il connaît et en qui il a confiance peut avoir une vraie valeur », écrit OpenAI.

Ce Que Cela Signifie

Cela reflète la responsabilité croissante des entreprises d'IA envers le bien-être des utilisateurs. La fonctionnalité ne prétend pas être un remède miracle, mais c'est un autre outil dans l'arsenal — un pont entre la technologie et le soin humain, entre un chatbot et des personnes qui sont vraiment prêtes à aider.

ZK
Hamidun News
Actualités IA sans bruit. Sélection éditoriale quotidienne de plus de 400 sources. Produit de Zhemal Khamidun, Head of AI chez Alpina Digital.
Qu'en pensez-vous ?
Chargement des commentaires…