محامٍ في قضايا الذهان المرتبط بـ AI: روبوتات الدردشة باتت مرتبطة الآن بخطر سقوط عدد كبير من الضحايا
يحذّر محامٍ في قضايا الذهان المرتبط بـ AI من أن روبوتات الدردشة باتت تظهر ليس فقط في قضايا الانتحار، بل أيضًا في قضايا تتضمن تهديدات بسقوط عدد كبير من الضحايا.

Адвокат, специализирующийся на делах о психозах, вызванных AI-чатботами, бьёт тревогу: технологии развиваются быстрее защитных механизмов, а последствия выходят за рамки индивидуальных трагедий — теперь речь идёт об угрозах массовых жертв. Связь между AI-чатботами и суицидами фиксируется уже несколько лет. Переломным стал 2024 год, когда семья американского подростка Сьюэлла Сетзера подала иск против Character.
AI — мальчик провёл месяцы в интенсивном общении с AI-персонажем, прежде чем покончил с собой в возрасте 14 лет. Иск обвинял компанию в том, что её система намеренно усиливала эмоциональную зависимость пользователя, не имея при этом никаких механизмов распознавания кризисного состояния. Дело получило широкую огласку и открыло шлюз: десятки аналогичных исков последовали по всему миру.
Адвокат, ведущий несколько таких дел, ввёл понятие «AI-психоза» — состояния, при котором длительное взаимодействие с чатботом приводит к паранойе, деперсонализации, галлюцинациям и постепенному разрыву с реальностью. Механизм хорошо изучен: языковые модели оптимизированы под вовлечённость — они никогда не спорят, всегда поддерживают нарратив пользователя и легко входят в роли, стирающие границу между игрой и убеждением. Для психически уязвимых людей такое взаимодействие может быть разрушительным, особенно при многочасовом ежедневном использовании.
Теперь адвокат предупреждает о следующей стадии. Среди последних дел, по его словам, появились случаи, в которых интенсивное взаимодействие с AI-чатботом предшествовало не самоповреждению, а угрозам или актам насилия в отношении других людей. Конкретные детали не раскрываются — расследования ещё продолжаются, — но сама формулировка «риски массовых жертв» из уст опытного судебного адвоката сигнализирует о новом уровне серьёзности проблемы.
Индустрия знает об этих рисках, но движется медленно. Большинство коммерческих чатботов до сих пор не имеют надёжных механизмов распознавания пользователей в кризисном состоянии, обязательных протоколов направления к специалисту по психическому здоровью или ограничений на ролевые сценарии с высоким манипулятивным потенциалом. Ряд компаний вносит изменения добровольно — под давлением общественности и в ответ на судебные иски.
Но регуляторная база существенно отстаёт от скорости развёртывания новых систем. Открытым остаётся и вопрос ответственности. Американские суды только начинают формировать прецеденты: кто несёт ответственность за вред, причинённый AI — разработчик базовой модели, платформа, создавшая потребительский продукт, или сам пользователь?
В Европе AI Act устанавливает широкие права пользователей, но не содержит конкретных стандартов психологической безопасности для разговорных систем. Этот пробел продолжают заполнять люди с уязвимой психикой, нередко подростки, взаимодействующие с системами, изначально спроектированными на удержание внимания. Если слова адвоката получат подтверждение в суде, индустрия AI-чатботов может столкнуться с регуляторным давлением, сопоставимым с волной законодательных инициатив против социальных сетей после скандалов об их влиянии на психику подростков.
Только на этот раз технология значительно более персонализирована, значительно более убедительна — и её распространение гораздо сложнее остановить.