The Verge→ оригинал

OpenAI добавил в ChatGPT уведомления доверенным контактам при кризисе

OpenAI добавила в ChatGPT Trusted Contact — функцию для оповещения близких о кризисе. Если чат-бот обнаружит обсуждение самоповреждения или суицида, доверенные

OpenAI добавил в ChatGPT уведомления доверенным контактам при кризисе
Источник: The Verge. Коллаж: Hamidun News.
◐ Слушать статью

OpenAI запустила новую опциональную функцию безопасности Trusted Contact для ChatGPT. Она позволяет взрослым пользователям указать доверенные контакты — близких, друзей или опекунов, которые будут уведомлены, если система обнаружит признаки психологического кризиса.

Как это работает

Функция работает просто: пользователь указывает одного или нескольких доверенных контактов и их контактную информацию. Если ChatGPT обнаружит, что человек обсуждает самоповреждение или суицид, система отправит уведомление этим контактам. OpenAI разработала функцию на основе экспертного анализа: исследования показывают, что когда человек находится в острейшем кризисе, поддержка от кого-то, кого он знает и кому доверяет, может иметь критическое значение. Это не замена профессиональной помощи — скорее, дополнение. Trusted Contact добавляется как ещё один уровень безопасности к уже существующим механизмам. Когда пользователь упоминает суицид или самоповреждение, ChatGPT предлагает локальные телефонные горячие линии (например, 988 в США). Теперь к этому добавляется возможность алертировать близких.

Опциональность как принцип Это не принудительная функция.

Пользователь сам решает, включать ли её, кого назначать доверенными контактами и когда отключать. Такой подход критичен для доверия: психическое здоровье — интимная область, и не каждый согласится с автоматическим мониторингом, даже для своей же безопасности.

  • Пользователь полностью контролирует список доверенных контактов Уведомления отправляются только при обнаружении обсуждения кризиса Функция может быть отключена в любой момент Контакты получат не просто оповещение, а информацию о том, что произошло, и список ресурсов для оказания поддержки. Идея в том, чтобы дать людям инструмент, а не панику.

Контекст: ответственность AI-компаний

OpenAI уже ранее работала над вопросом о том, как AI-системы должны реагировать на упоминания суицида и самоповреждения. Баланс здесь сложный: с одной стороны, нужно помочь человеку в беде; с другой — не вторгаться в приватность и не создавать ложное впечатление, что AI может заменить реальную помощь. Многие компании в этом пространстве экспериментируют с функциями безопасности. Некоторые используют чат-боты для скрининга, другие интегрируют горячие линии. Trusted Contact — это идея, которая стоит где-то посередине: не полный контроль, а расширенная сеть поддержки.

«Trusted

Contact разработана на простой, проверенной экспертами идее: когда человек может быть в кризисе, подключение к кому-то, кого он знает и кому доверяет, может иметь реальное значение», — пишет OpenAI.

Что это значит Это отражает растущую ответственность AI-компаний за благополучие пользователей.

Функция не претендует на то, чтобы быть чудо-лекарством, но это ещё один инструмент в арсенале — мост между технологией и человеческой заботой, между чат-ботом и людьми, которые действительно готовы помочь.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Что вы думаете?
Загружаем комментарии…