OpenAI добавил в ChatGPT уведомления доверенным контактам при кризисе
OpenAI добавила в ChatGPT Trusted Contact — функцию для оповещения близких о кризисе. Если чат-бот обнаружит обсуждение самоповреждения или суицида, доверенные

OpenAI запустила новую опциональную функцию безопасности Trusted Contact для ChatGPT. Она позволяет взрослым пользователям указать доверенные контакты — близких, друзей или опекунов, которые будут уведомлены, если система обнаружит признаки психологического кризиса.
Как это работает
Функция работает просто: пользователь указывает одного или нескольких доверенных контактов и их контактную информацию. Если ChatGPT обнаружит, что человек обсуждает самоповреждение или суицид, система отправит уведомление этим контактам. OpenAI разработала функцию на основе экспертного анализа: исследования показывают, что когда человек находится в острейшем кризисе, поддержка от кого-то, кого он знает и кому доверяет, может иметь критическое значение. Это не замена профессиональной помощи — скорее, дополнение. Trusted Contact добавляется как ещё один уровень безопасности к уже существующим механизмам. Когда пользователь упоминает суицид или самоповреждение, ChatGPT предлагает локальные телефонные горячие линии (например, 988 в США). Теперь к этому добавляется возможность алертировать близких.
Опциональность как принцип Это не принудительная функция.
Пользователь сам решает, включать ли её, кого назначать доверенными контактами и когда отключать. Такой подход критичен для доверия: психическое здоровье — интимная область, и не каждый согласится с автоматическим мониторингом, даже для своей же безопасности.
- Пользователь полностью контролирует список доверенных контактов Уведомления отправляются только при обнаружении обсуждения кризиса Функция может быть отключена в любой момент Контакты получат не просто оповещение, а информацию о том, что произошло, и список ресурсов для оказания поддержки. Идея в том, чтобы дать людям инструмент, а не панику.
Контекст: ответственность AI-компаний
OpenAI уже ранее работала над вопросом о том, как AI-системы должны реагировать на упоминания суицида и самоповреждения. Баланс здесь сложный: с одной стороны, нужно помочь человеку в беде; с другой — не вторгаться в приватность и не создавать ложное впечатление, что AI может заменить реальную помощь. Многие компании в этом пространстве экспериментируют с функциями безопасности. Некоторые используют чат-боты для скрининга, другие интегрируют горячие линии. Trusted Contact — это идея, которая стоит где-то посередине: не полный контроль, а расширенная сеть поддержки.
«Trusted
Contact разработана на простой, проверенной экспертами идее: когда человек может быть в кризисе, подключение к кому-то, кого он знает и кому доверяет, может иметь реальное значение», — пишет OpenAI.
Что это значит Это отражает растущую ответственность AI-компаний за благополучие пользователей.
Функция не претендует на то, чтобы быть чудо-лекарством, но это ещё один инструмент в арсенале — мост между технологией и человеческой заботой, между чат-ботом и людьми, которые действительно готовы помочь.