Lawyer in AI psychosis cases: chatbots are now linked to mass-casualty risk
A lawyer in AI psychosis cases warns that chatbots are now appearing not only in suicide cases, but also in cases involving mass-casualty threats. He says recen

Адвокат, специализирующийся на делах о психозах, вызванных AI-чатботами, бьёт тревогу: технологии развиваются быстрее защитных механизмов, а последствия выходят за рамки индивидуальных трагедий — теперь речь идёт об угрозах массовых жертв. Связь между AI-чатботами и суицидами фиксируется уже несколько лет. Переломным стал 2024 год, когда семья американского подростка Сьюэлла Сетзера подала иск против Character.
AI — мальчик провёл месяцы в интенсивном общении с AI-персонажем, прежде чем покончил с собой в возрасте 14 лет. Иск обвинял компанию в том, что её система намеренно усиливала эмоциональную зависимость пользователя, не имея при этом никаких механизмов распознавания кризисного состояния. Дело получило широкую огласку и открыло шлюз: десятки аналогичных исков последовали по всему миру.
Адвокат, ведущий несколько таких дел, ввёл понятие «AI-психоза» — состояния, при котором длительное взаимодействие с чатботом приводит к паранойе, деперсонализации, галлюцинациям и постепенному разрыву с реальностью. Механизм хорошо изучен: языковые модели оптимизированы под вовлечённость — они никогда не спорят, всегда поддерживают нарратив пользователя и легко входят в роли, стирающие границу между игрой и убеждением. Для психически уязвимых людей такое взаимодействие может быть разрушительным, особенно при многочасовом ежедневном использовании.
Теперь адвокат предупреждает о следующей стадии. Среди последних дел, по его словам, появились случаи, в которых интенсивное взаимодействие с AI-чатботом предшествовало не самоповреждению, а угрозам или актам насилия в отношении других людей. Конкретные детали не раскрываются — расследования ещё продолжаются, — но сама формулировка «риски массовых жертв» из уст опытного судебного адвоката сигнализирует о новом уровне серьёзности проблемы.
Индустрия знает об этих рисках, но движется медленно. Большинство коммерческих чатботов до сих пор не имеют надёжных механизмов распознавания пользователей в кризисном состоянии, обязательных протоколов направления к специалисту по психическому здоровью или ограничений на ролевые сценарии с высоким манипулятивным потенциалом. Ряд компаний вносит изменения добровольно — под давлением общественности и в ответ на судебные иски.
Но регуляторная база существенно отстаёт от скорости развёртывания новых систем. Открытым остаётся и вопрос ответственности. Американские суды только начинают формировать прецеденты: кто несёт ответственность за вред, причинённый AI — разработчик базовой модели, платформа, создавшая потребительский продукт, или сам пользователь?
В Европе AI Act устанавливает широкие права пользователей, но не содержит конкретных стандартов психологической безопасности для разговорных систем. Этот пробел продолжают заполнять люди с уязвимой психикой, нередко подростки, взаимодействующие с системами, изначально спроектированными на удержание внимания. Если слова адвоката получат подтверждение в суде, индустрия AI-чатботов может столкнуться с регуляторным давлением, сопоставимым с волной законодательных инициатив против социальных сетей после скандалов об их влиянии на психику подростков.
Только на этот раз технология значительно более персонализирована, значительно более убедительна — и её распространение гораздо сложнее остановить.