TechCrunch→ оригинал

OpenAI a renforcé les protections de ChatGPT avec une fonction d’alerte de contact

OpenAI a renforcé les protections de ChatGPT avec la nouvelle fonction Trusted Contact. Lorsqu’un utilisateur évoque l’automutilation, le système peut avertir u

OpenAI a renforcé les protections de ChatGPT avec une fonction d’alerte de contact
Source : TechCrunch. Коллаж: Hamidun News.
◐ Слушать статью

OpenAI élargit ses efforts pour protéger les utilisateurs de ChatGPT dans les situations où les conversations peuvent impliquer un risque d'automutilation. L'entreprise a introduit une nouvelle fonction Trusted Contact qui permet de notifier automatiquement une personne de confiance d'une menace potentielle.

Comment fonctionne Trusted Contact

La fonction permet aux utilisateurs de désigner au préalable un contact — une personne qui doit être notifiée si des signes de risque d'automutilation sont détectés dans une conversation ChatGPT. Si le système détermine qu'un utilisateur discute d'une possible automutilation ou de pensées suicidaires, il enverra au contact de confiance une notification avec des informations sur le danger potentiel. Le mécanisme utilise les modèles d'OpenAI pour analyser le texte en temps réel.

La notification contient des informations sur le risque, mais sans le contexte complet de la conversation — pour protéger la confidentialité de l'utilisateur. Le contact de confiance recevra une alerte ciblée et des liens vers des ressources d'aide. La fonction est entièrement facultative : l'utilisateur doit l'activer lui-même et choisir à qui confier les notifications.

Cela signifie que le système n'enverra pas d'alertes sans consentement explicite.

Pourquoi c'est important pour les plateformes

La santé mentale des utilisateurs est une préoccupation croissante pour les entreprises qui créent des systèmes d'IA. La recherche montre que les personnes en situations de crise se tournent souvent vers ChatGPT avec des questions qu'elles ne sont pas prêtes à discuter avec des amis, des parents ou des médecins. L'anonymat et l'absence de jugement rendent l'assistant IA attrayant pour de telles conversations.

OpenAI cherche à équilibrer l'accessibilité du service avec la responsabilité envers les utilisateurs vulnérables. Trusted Contact n'est pas le premier mécanisme de ce type. L'entreprise propose déjà l'intégration avec des lignes d'aide en santé mentale, des messages d'avertissement en situations critiques et des informations sur les ressources d'aide.

L'approche s'aligne sur les tendances mondiales. D'autres grandes plateformes (Meta, TikTok, Discord) développent également des outils pour identifier les risques et alerter les proches. Cela devient une pratique standard dans l'industrie.

Où cela s'inscrit dans la stratégie d'OpenAI

OpenAI investit dans plusieurs directions pour la protection des utilisateurs :

  • Détection automatique des situations critiques dans les dialogues via les modèles de ML
  • Liens intégrés vers les lignes d'aide, les conseillers et les communautés d'aide
  • Matériel pédagogique sur la santé mentale et les ressources disponibles
  • Notifications et recommandations pour les parents des utilisateurs mineurs
  • Partenariats avec les organismes d'aide (NAMI, SAMHSA, Crisis Text Line)

Trusted Contact a été spécifiquement conçu pour les utilisateurs qui reconnaissent le risque et souhaitent avoir un filet de sécurité — pour qu'une personne de confiance apprenne le problème à un stade précoce et puisse offrir du soutien.

Ce que cela signifie

Trusted Contact démontre la responsabilité croissante des entreprises d'IA envers la sécurité des utilisateurs. Le mécanisme ne remplace pas l'aide professionnelle, mais il peut faire gagner du temps à un moment critique — quand une personne de confiance apprend le problème et peut intervenir. Pour des dizaines de millions d'utilisateurs de ChatGPT, cela ajoute une couche de protection à l'écosystème de la plateforme.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Qu'en pensez-vous ?
Chargement des commentaires…