The Verge→ оригинал

OpenAI añade notificaciones a contactos de confianza en ChatGPT en situaciones de crisis

OpenAI ha añadido Trusted Contact a ChatGPT, una función para alertar a personas cercanas durante una crisis. Si el chatbot detecta una conversación sobre autol

OpenAI añade notificaciones a contactos de confianza en ChatGPT en situaciones de crisis
Fuente: The Verge. Коллаж: Hamidun News.
◐ Слушать статью

OpenAI ha lanzado una nueva función opcional de seguridad llamada Trusted Contact para ChatGPT. Permite que usuarios adultos designen contactos de confianza — familiares, amigos o tutores — que serán notificados si el sistema detecta signos de una crisis psicológica.

Cómo Funciona

La función es directa: un usuario especifica uno o varios contactos de confianza y proporciona su información de contacto. Si ChatGPT detecta que alguien está discutiendo autolesiones o suicidio, el sistema envía notificaciones a estos contactos. OpenAI desarrolló la función sobre la base de análisis de expertos: la investigación muestra que cuando una persona está en crisis aguda, el apoyo de alguien que conoce y en quien confía puede ser crítico.

Esto no es un reemplazo para la ayuda profesional — sino un complemento. Trusted Contact se añade como otra capa de seguridad a los mecanismos existentes. Cuando un usuario menciona suicidio o autolesiones, ChatGPT ofrece líneas de crisis locales (por ejemplo, 988 en EE.

UU.) Ahora, la capacidad de alertar a contactos de confianza se añade a esto.

Opcionalidad como Principio

Esta no es una función obligatoria. Los usuarios deciden si habilitarla, quién designar como contactos de confianza y cuándo deshabilitarla. Este enfoque es crítico para la confianza: la salud mental es una cuestión íntima, y no todos estarán de acuerdo con el monitoreo automático, incluso por su propia seguridad.

  • Los usuarios tienen control total sobre su lista de contactos de confianza
  • Las notificaciones se envían solo cuando se detecta discusión de crisis
  • La función puede deshabilitarse en cualquier momento

Los contactos recibirán no solo una notificación, sino información sobre qué sucedió y una lista de recursos para brindar apoyo. La idea es dar a las personas una herramienta, no provocar pánico.

Contexto: Responsabilidad de las Empresas de IA

OpenAI ha trabajado previamente en cómo los sistemas de IA deben responder a menciones de suicidio y autolesiones. El equilibrio aquí es complejo: por un lado, necesitas ayudar a alguien en angustia; por otro, no debes invadir la privacidad ni crear una impresión falsa de que la IA puede reemplazar la ayuda real. Muchas empresas en este espacio están experimentando con funciones de seguridad. Algunos usan chatbots para detección, otros integran líneas de crisis. Trusted Contact es una idea que se sitúa en algún lugar en el medio: no control total, sino una red de apoyo ampliada.

"Trusted

Contact está construida sobre una idea simple y verificada por expertos: cuando alguien puede estar en crisis, conectarlo con alguien que conoce y en quien confía puede tener valor real", escribe OpenAI.

Qué Significa Esto

Esto refleja la creciente responsabilidad de las empresas de IA por el bienestar de los usuarios. La función no pretende ser una panacea, pero es otra herramienta en el arsenal — un puente entre la tecnología y el cuidado humano, entre un chatbot y personas que realmente están listas para ayudar.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
¿Qué te parece?
Cargando comentarios…