TechCrunch→ оригинал

OpenAI amplió la protección de ChatGPT con una función de alerta de contacto

OpenAI amplió la protección en ChatGPT con la nueva función Trusted Contact. Cuando un usuario habla de autolesiones, el sistema puede avisar a un contacto de c

OpenAI amplió la protección de ChatGPT con una función de alerta de contacto
Fuente: TechCrunch. Коллаж: Hamidun News.
◐ Слушать статью

OpenAI está expandiendo sus esfuerzos para proteger a los usuarios de ChatGPT en situaciones donde las conversaciones pueden involucrar riesgo de autolesión. La empresa ha introducido una nueva función Trusted Contact que permite notificar automáticamente a una persona de confianza sobre una amenaza potencial.

Cómo funciona Trusted Contact

La función permite a los usuarios designar previamente un contacto — una persona que debe ser notificada si se detectan signos de riesgo de autolesión en una conversación de ChatGPT. Si el sistema determina que un usuario está discutiendo posible autolesión o pensamientos suicidas, enviará al contacto de confianza una notificación con información sobre el peligro potencial. El mecanismo utiliza modelos de OpenAI para analizar texto en tiempo real.

La notificación contiene información sobre el riesgo, pero sin el contexto completo de la conversación — para proteger la privacidad del usuario. El contacto de confianza recibirá una alerta dirigida y enlaces a recursos de apoyo. La función es completamente opcional: el usuario debe activarla por sí mismo y elegir a quién confiar las notificaciones.

Esto significa que el sistema no enviará alertas sin consentimiento explícito.

Por qué esto importa para las plataformas

La salud mental del usuario es una preocupación creciente para las empresas que crean sistemas de IA. La investigación muestra que las personas en situaciones de crisis a menudo recurren a ChatGPT con preguntas que no están listas para discutir con amigos, padres o médicos. El anonimato y la falta de juicio hacen que el asistente de IA sea atractivo para tales conversaciones.

OpenAI busca equilibrar la accesibilidad del servicio con la responsabilidad hacia los usuarios vulnerables. Trusted Contact no es el primer mecanismo de este tipo. La empresa ya ofrece integración con líneas de ayuda de salud mental, mensajes de advertencia en situaciones críticas e información sobre recursos de apoyo.

El enfoque se alinea con tendencias globales. Otras grandes plataformas (Meta, TikTok, Discord) también están desarrollando herramientas para identificar riesgos y alertar a los seres queridos. Esto se está convirtiendo en una práctica estándar en la industria.

Dónde encaja en la estrategia de OpenAI

OpenAI invierte en varias direcciones para la protección del usuario:

  • Detección automática de situaciones críticas en diálogos mediante modelos de ML
  • Enlaces integrados a líneas de ayuda, consultores y comunidades de apoyo
  • Materiales educativos sobre salud mental y recursos disponibles
  • Notificaciones y recomendaciones para padres de usuarios menores
  • Asociaciones con organizaciones de apoyo (NAMI, SAMHSA, Crisis Text Line)

Trusted Contact está específicamente diseñado para usuarios que reconocen el riesgo y quieren una red de seguridad — para que una persona de confianza se entere del problema en una etapa temprana y pueda ofrecer apoyo.

Qué significa esto

Trusted Contact demuestra la responsabilidad creciente de las empresas de IA hacia la seguridad del usuario. El mecanismo no reemplaza la ayuda profesional, pero puede ahorrar tiempo en un momento crítico — cuando una persona de confianza se entera del problema e interviene. Para decenas de millones de usuarios de ChatGPT, esto añade una capa de protección al ecosistema de la plataforma.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
¿Qué te parece?
Cargando comentarios…