OpenAI Blog→ оригинал

OpenAI запускает в ChatGPT доверенный контакт для уведомлений при риске суицида

OpenAI начала разворачивать Trusted Contact в ChatGPT — опциональную функцию для взрослых пользователей. Если система и обученные специалисты увидят признаки се

OpenAI запускает в ChatGPT доверенный контакт для уведомлений при риске суицида
Источник: OpenAI Blog. Коллаж: Hamidun News.
◐ Слушать статью

7 мая 2026 года OpenAI начала разворачивать в ChatGPT функцию Trusted Contact — «доверенный контакт» для взрослых пользователей. Если система увидит признаки серьёзного риска самоповреждения или суицида, она сможет уведомить заранее выбранного человеком близкого, чтобы тот вышел на связь.

Как это работает

Функция настраивается в личном аккаунте ChatGPT и доступна только взрослым пользователям: от 18 лет в большинстве стран и от 19 лет в Южной Корее. Пользователь может добавить только одного доверенного контакта через Settings > Trusted contact. Для активации нужен email, номер телефона можно указать дополнительно. После этого выбранный человек получает приглашение и должен принять его в течение недели. Если он откажется, не ответит или не подходит по возрасту, ChatGPT предложит выбрать другого человека.

  • Один доверенный контакт на аккаунт Email обязателен, телефон рекомендован Приглашение может прийти по email, SMS, WhatsApp или внутри ChatGPT * Функция доступна только в личных аккаунтах, но не в Business, Enterprise или Edu Дальше включается двухступенчатая схема. Если автоматические системы решат, что пользователь говорит о суициде или самоповреждении так, что это похоже на серьёзную угрозу, ChatGPT сначала предупредит самого пользователя, что доверенный контакт может быть уведомлён. Только после этого разговор может уйти на проверку небольшой команде специально обученных специалистов, которые принимают финальное решение. OpenAI отдельно подчёркивает, что без такого предупреждения уведомление контакту не отправляется.

Что увидит контакт

Если специалисты подтверждают серьёзный риск, доверенному контакту отправляется короткое уведомление по email, SMS, WhatsApp или внутри ChatGPT. В сообщении не пересылаются детали чата, скриншоты или расшифровка переписки. OpenAI подчёркивает, что контакт увидит только общий смысл: система заметила разговор о суициде, который может указывать на серьёзную проблему, и рекомендует аккуратно связаться с человеком.

В компании также говорят, что стараются обрабатывать такие случаи меньше чем за час. Это важная оговорка: функция не заменяет психотерапию, кризисные службы и экстренную помощь. Сам доверенный контакт тоже не становится «ответственным» за безопасность человека и не обязан играть роль консультанта.

Его задача проще — проверить, как человек себя чувствует, дать ощущение опоры и, если нужно, помочь подключить профессиональную помощь. OpenAI прямо пишет, что система может ошибаться, а уведомление не всегда точно отражает состояние пользователя в конкретный момент.

Почему

OpenAI запускает это Новая функция продолжает линию OpenAI на инструменты безопасности для чувствительных разговоров. Раньше похожие уведомления были у родительского контроля для подростковых аккаунтов, а теперь механизм расширили и на взрослых пользователей личных аккаунтов. По словам компании, Trusted Contact создавали вместе с клиницистами, исследователями и организациями, которые занимаются психическим здоровьем и профилактикой суицида. OpenAI отдельно упоминает свою сеть из более чем 260 лицензированных врачей в 60 странах и сотрудничество с American Psychological Association.

«Социальная связь — один из самых сильных защитных факторов в периоды эмоционального дистресса», — говорит глава APA Артур Эванс.

Отдельный акцент — на приватности и контроле. Пользователь может в любой момент удалить или заменить доверенный контакт, а сам контакт может отказаться от участия или выйти из него позже. При этом развёртывание идёт постепенно: если пункта Trusted contact пока нет в настройках или внутри диалога ChatGPT, значит функция ещё не включена для этого аккаунта.

Что это значит

OpenAI делает ещё один шаг от просто умного собеседника к продукту, который вмешивается в критические ситуации по заранее согласованным правилам. Для рынка это важный сигнал: AI-сервисы всё чаще будут связывать цифровую поддержку с реальными людьми, но одновременно им придётся очень аккуратно балансировать между пользой, приватностью и риском ложных срабатываний.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Что вы думаете?
Загружаем комментарии…