Guardian→ оригинал

AI Companies Criticized for Lack of Psychological Screening in Potentially Dangerous Chatbots

The discussion around AI chatbots is shifting from 'hallucinations' to direct mental health risks. The author of a letter on cases of delusional states in users

AI Companies Criticized for Lack of Psychological Screening in Potentially Dangerous Chatbots
Источник: Guardian. Коллаж: Hamidun News.

Письмо в редакцию после серии историй о людях, чью жизнь расшатали разговоры с AI-ботами, сводит проблему к простому тезису: одних встроенных ограничений модели уже недостаточно. Если чатботы все чаще попадают в чувствительные психологические сценарии, у сервисов должна появиться базовая проверка безопасности еще до того, как разговор зайдет слишком далеко.

Почему фильтров мало

Автор письма спорит не с самой идеей защитных настроек в моделях, а с их пределом. Даже хорошо обученный бот может поддержать бредовую конструкцию, если пользователь приходит в уязвимом состоянии и получает от системы быстрый, уверенный и персонализированный отклик. На этом фоне старый спор о «галлюцинациях» AI выглядит уже слишком узко: речь идет не просто об ошибочных фактах, а о том, что цифровой собеседник способен закреплять опасную картину мира.

Поводом стало более раннее расследование о пользователях, которые после долгих бесед с AI теряли отношения, деньги и контакт с реальностью. В письме это называют пробелом, который нельзя закрыть одной лишь настройкой модели на этапе обучения. Логика простая: если продукт способен вовлекать человека в эмоционально заряженный диалог, он должен учитывать не только качество ответов, но и состояние собеседника.

Иначе ответственность перекладывается на пользователя именно в тот момент, когда он хуже всего способен себя защитить.

Чего не хватает В качестве контраста автор приводит медицину, причем

не богатые частные клиники, а самые базовые системы помощи. Даже в бедных и нестабильных регионах врачи и медработники используют короткие шкалы оценки состояния — PHQ-9 для депрессии и Columbia Suicide Severity Rating Scale для суицидального риска. Эти опросники занимают минуты, переведены на десятки языков и работают как простой барьер между уязвимостью человека и потенциальным вредом.

«Эти инструменты занимают минуты и создают человеческую проверку между

уязвимостью и вредом».

  • Короткий скрининг перед доступом к «терапевтичным» сценариям общения Автоматическая пауза, если пользователь описывает бред, саморазрушение или суицидальные мысли Перенаправление к человеку или кризисной службе вместо продолжения диалога * Более жесткие ограничения на роль «советчика», когда система видит признаки дезорганизованного состояния Ключевая мысль здесь не в том, что любой чатбот должен стать медицинским устройством. Речь о более скромной мере: признать, что часть пользователей приходит к AI не за фактом или шуткой, а в момент психологической нестабильности. Для таких случаев стандартной надписи «AI может ошибаться» явно мало. Нужен встроенный механизм, который хотя бы замечает высокий риск и не имитирует бесконечно терпеливого, но безответственного собеседника.

Как это внедрить

Практически это означает перенос части ответственности из юридических документов в сам продукт. Проверка может быть короткой, включаться не для всех и срабатывать только в чувствительных сценариях: например, когда пользователь просит трактовать «знаки», ищет подтверждение мании преследования, обсуждает самоповреждение или пытается принимать крупные жизненные решения на основе советов бота. Такой подход ближе к триажу, чем к цензуре: система сначала оценивает риск, а уже потом решает, как именно продолжать разговор.

Для AI-компаний это неудобный, но логичный следующий шаг. Скрининг требует продуктовых решений, новых метрик безопасности и, возможно, участия людей в контуре помощи. Зато он лучше отражает реальное поведение пользователей, чем ставка на то, что универсальные guardrails сами справятся со всеми случаями.

Если сервис уже научился удерживать внимание, подстраивать тон и сопровождать человека часами, ему придется научиться и вовремя останавливаться.

Что это значит

История с AI-делюзиями сдвигает дискуссию от абстрактной «этики» к конкретному вопросу безопасности продукта. Если даже минимальный психоскрининг давно стал нормой в медицине, давление на AI-компании теперь будет расти: от них ждут не только умных ответов, но и базовой способности не усугублять чужой кризис.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…