OpenAI añade notificaciones a contactos de confianza en ChatGPT en situaciones de crisis
OpenAI ha añadido Trusted Contact a ChatGPT, una función para alertar a personas cercanas durante una crisis. Si el chatbot detecta una conversación sobre autol

OpenAI ha lanzado una nueva función opcional de seguridad llamada Trusted Contact para ChatGPT. Permite que usuarios adultos designen contactos de confianza — familiares, amigos o tutores — que serán notificados si el sistema detecta signos de una crisis psicológica.
Cómo Funciona
La función es directa: un usuario especifica uno o varios contactos de confianza y proporciona su información de contacto. Si ChatGPT detecta que alguien está discutiendo autolesiones o suicidio, el sistema envía notificaciones a estos contactos. OpenAI desarrolló la función sobre la base de análisis de expertos: la investigación muestra que cuando una persona está en crisis aguda, el apoyo de alguien que conoce y en quien confía puede ser crítico.
Esto no es un reemplazo para la ayuda profesional — sino un complemento. Trusted Contact se añade como otra capa de seguridad a los mecanismos existentes. Cuando un usuario menciona suicidio o autolesiones, ChatGPT ofrece líneas de crisis locales (por ejemplo, 988 en EE.
UU.) Ahora, la capacidad de alertar a contactos de confianza se añade a esto.
Opcionalidad como Principio
Esta no es una función obligatoria. Los usuarios deciden si habilitarla, quién designar como contactos de confianza y cuándo deshabilitarla. Este enfoque es crítico para la confianza: la salud mental es una cuestión íntima, y no todos estarán de acuerdo con el monitoreo automático, incluso por su propia seguridad.
- Los usuarios tienen control total sobre su lista de contactos de confianza
- Las notificaciones se envían solo cuando se detecta discusión de crisis
- La función puede deshabilitarse en cualquier momento
Los contactos recibirán no solo una notificación, sino información sobre qué sucedió y una lista de recursos para brindar apoyo. La idea es dar a las personas una herramienta, no provocar pánico.
Contexto: Responsabilidad de las Empresas de IA
OpenAI ha trabajado previamente en cómo los sistemas de IA deben responder a menciones de suicidio y autolesiones. El equilibrio aquí es complejo: por un lado, necesitas ayudar a alguien en angustia; por otro, no debes invadir la privacidad ni crear una impresión falsa de que la IA puede reemplazar la ayuda real. Muchas empresas en este espacio están experimentando con funciones de seguridad. Algunos usan chatbots para detección, otros integran líneas de crisis. Trusted Contact es una idea que se sitúa en algún lugar en el medio: no control total, sino una red de apoyo ampliada.
"Trusted
Contact está construida sobre una idea simple y verificada por expertos: cuando alguien puede estar en crisis, conectarlo con alguien que conoce y en quien confía puede tener valor real", escribe OpenAI.
Qué Significa Esto
Esto refleja la creciente responsabilidad de las empresas de IA por el bienestar de los usuarios. La función no pretende ser una panacea, pero es otra herramienta en el arsenal — un puente entre la tecnología y el cuidado humano, entre un chatbot y personas que realmente están listas para ayudar.