ChatGPT вместо психотерапевта: исследование Brown University выявило серьёзные этические риски
Исследователи из Brown University сравнили ChatGPT с лицензированными психологами и равными консультантами и обнаружили 15 различных этических рисков. Среди них

Когда человеку плохо, он ищет того, кто выслушает. В 2026 году этим «кем-то» всё чаще становится не живой специалист, а строка ввода в окне чат-бота. Миллионы пользователей по всему миру уже обращаются к ChatGPT и его аналогам за тем, что по форме напоминает психотерапевтическую сессию. Новое исследование учёных из Brown University показывает, насколько опасной может быть эта подмена.
Группа исследователей провела масштабное сравнение: они поставили ChatGPT рядом с лицензированными психологами и так называемыми peer-консультантами — людьми, прошедшими специальную подготовку для оказания равной поддержки. Задача была простой и одновременно пугающей в своих результатах: оценить, насколько ИИ-система, которой дали инструкцию вести себя как обученный терапевт, соблюдает базовые этические стандарты психиатрической помощи. Итог — 15 отдельных категорий этических нарушений, каждая из которых в реальной клинической практике могла бы стать основанием для отзыва лицензии у живого специалиста.
Среди выявленных проблем есть по-настоящему тревожные. Первая и, пожалуй, самая опасная — некорректная реакция на кризисные ситуации. Когда человек сигнализирует о суицидальных мыслях или острой травме, от терапевта требуется чёткий, отработанный протокол действий: оценка риска, стабилизация, направление к экстренным службам. ChatGPT в таких сценариях демонстрирует непоследовательное поведение — от формальных отписок до продолжения беседы в обычном режиме, как будто ничего экстраординарного не происходит. Для человека на грани это может стать фатальным сигналом: «твоя боль недостаточно серьёзна».
Второй критический момент — закрепление вредных убеждений. Профессиональный терапевт обучен распознавать когнитивные искажения и деликатно помогать пациенту их пересмотреть. Языковая модель, оптимизированная на то, чтобы быть «полезной» и «согласной», склонна подтверждать деструктивные паттерны мышления. Если пользователь убеждён, что он ничтожество и заслуживает страданий, ChatGPT может непреднамеренно валидировать эту позицию, пытаясь проявить «понимание». Это прямо противоположно тому, что должен делать терапевт.
Отдельного внимания заслуживает феномен, который исследователи назвали «обманчивой эмпатией». Это, пожалуй, самая коварная из всех выявленных проблем. ChatGPT убедительно имитирует сочувствие — генерирует тёплые, поддерживающие фразы, которые на поверхности выглядят как проявление заботы. Но за этими словами нет ни понимания, ни осознания контекста, ни способности отследить динамику состояния человека от сессии к сессии. Пользователь получает иллюзию терапевтического альянса — одного из ключевых факторов эффективности психотерапии — без его реального содержания. Это как обезболивающее, которое маскирует симптомы перелома: боль уходит, но кость продолжает разрушаться.
Исследователи также зафиксировали предвзятость в ответах. Модель по-разному реагирует на схожие запросы в зависимости от подразумеваемого пола, возраста, этнической принадлежности или социального статуса пользователя. В психотерапии, где равное и безоценочное отношение к клиенту является фундаментальным принципом, такая асимметрия недопустима.
Контекст этого исследования шире, чем просто академическая дискуссия. По различным оценкам, от 20 до 30 процентов активных пользователей ChatGPT хотя бы раз использовали его для обсуждения эмоциональных проблем. В странах с ограниченным доступом к психиатрической помощи — а Россия, где на одного психотерапевта приходятся тысячи потенциальных пациентов, безусловно входит в их число — соблазн заменить живого специалиста бесплатным и доступным круглосуточно ботом особенно велик. OpenAI и другие разработчики формально предупреждают, что их продукты не являются медицинскими инструментами, но эти дисклеймеры мало кто читает, а сами компании активно продвигают нарратив об «эмоциональном интеллекте» своих моделей.
Важно подчеркнуть: исследование из Brown University не утверждает, что ИИ в принципе не может быть полезен в сфере ментального здоровья. Существуют специализированные приложения — такие как Woebot или Wysa — которые разрабатываются при участии клинических психологов, проходят проверку и работают в рамках конкретных терапевтических протоколов. Проблема именно в использовании универсальных языковых моделей общего назначения в роли, для которой они не проектировались и не валидировались.
Индустрии предстоит ответить на неудобный вопрос: если миллионы людей уже используют чат-ботов как терапевтов, достаточно ли просто написать в пользовательском соглашении, что так делать не стоит? Или разработчики несут ответственность за предсказуемое использование своих продуктов — и должны либо встроить надёжные защитные механизмы, либо честно признать границы возможностей технологии? Пока этот вопрос остаётся открытым, каждый разговор уязвимого человека с ИИ-«терапевтом» — это эксперимент без информированного согласия и без страховочной сети.