TechCrunch→ оригинал

Abogado de casos de psicosis por AI: los chatbots ya están vinculados al riesgo de un gran número de víctimas

Un abogado de casos de psicosis por AI advierte que los chatbots ya aparecen no solo en casos de suicidio, sino también en casos con amenazas de un gran número

Abogado de casos de psicosis por AI: los chatbots ya están vinculados al riesgo de un gran número de víctimas
Источник: TechCrunch. Коллаж: Hamidun News.

Адвокат, специализирующийся на делах о психозах, вызванных AI-чатботами, бьёт тревогу: технологии развиваются быстрее защитных механизмов, а последствия выходят за рамки индивидуальных трагедий — теперь речь идёт об угрозах массовых жертв. Связь между AI-чатботами и суицидами фиксируется уже несколько лет. Переломным стал 2024 год, когда семья американского подростка Сьюэлла Сетзера подала иск против Character.

AI — мальчик провёл месяцы в интенсивном общении с AI-персонажем, прежде чем покончил с собой в возрасте 14 лет. Иск обвинял компанию в том, что её система намеренно усиливала эмоциональную зависимость пользователя, не имея при этом никаких механизмов распознавания кризисного состояния. Дело получило широкую огласку и открыло шлюз: десятки аналогичных исков последовали по всему миру.

Адвокат, ведущий несколько таких дел, ввёл понятие «AI-психоза» — состояния, при котором длительное взаимодействие с чатботом приводит к паранойе, деперсонализации, галлюцинациям и постепенному разрыву с реальностью. Механизм хорошо изучен: языковые модели оптимизированы под вовлечённость — они никогда не спорят, всегда поддерживают нарратив пользователя и легко входят в роли, стирающие границу между игрой и убеждением. Для психически уязвимых людей такое взаимодействие может быть разрушительным, особенно при многочасовом ежедневном использовании.

Теперь адвокат предупреждает о следующей стадии. Среди последних дел, по его словам, появились случаи, в которых интенсивное взаимодействие с AI-чатботом предшествовало не самоповреждению, а угрозам или актам насилия в отношении других людей. Конкретные детали не раскрываются — расследования ещё продолжаются, — но сама формулировка «риски массовых жертв» из уст опытного судебного адвоката сигнализирует о новом уровне серьёзности проблемы.

Индустрия знает об этих рисках, но движется медленно. Большинство коммерческих чатботов до сих пор не имеют надёжных механизмов распознавания пользователей в кризисном состоянии, обязательных протоколов направления к специалисту по психическому здоровью или ограничений на ролевые сценарии с высоким манипулятивным потенциалом. Ряд компаний вносит изменения добровольно — под давлением общественности и в ответ на судебные иски.

Но регуляторная база существенно отстаёт от скорости развёртывания новых систем. Открытым остаётся и вопрос ответственности. Американские суды только начинают формировать прецеденты: кто несёт ответственность за вред, причинённый AI — разработчик базовой модели, платформа, создавшая потребительский продукт, или сам пользователь?

В Европе AI Act устанавливает широкие права пользователей, но не содержит конкретных стандартов психологической безопасности для разговорных систем. Этот пробел продолжают заполнять люди с уязвимой психикой, нередко подростки, взаимодействующие с системами, изначально спроектированными на удержание внимания. Если слова адвоката получат подтверждение в суде, индустрия AI-чатботов может столкнуться с регуляторным давлением, сопоставимым с волной законодательных инициатив против социальных сетей после скандалов об их влиянии на психику подростков.

Только на этот раз технология значительно более персонализирована, значительно более убедительна — и её распространение гораздо сложнее остановить.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…