Wired→ оригинал

Lawyer vs. OpenAI: who will answer for children's deaths caused by AI chatbots

The first wave of lawsuits against AI companies over children's deaths is unfolding in the US. Lawyer Matthew Bergman is seeking to hold OpenAI and Character.AI

Lawyer vs. OpenAI: who will answer for children's deaths caused by AI chatbots
Источник: Wired. Коллаж: Hamidun News.

Юрист Мэттью Бергман ведёт серию дел против OpenAI и других ИИ-компаний, утверждая, что их продукты напрямую виновны в гибели детей. Это первая волна системных исков, способных установить прецедент ответственности для всей индустрии. За последний год в США задокументированы как минимум несколько случаев суицида среди подростков, которых семьи связывают с общением с ИИ-чат-ботами.

Самый известный — гибель 14-летнего Сьюэлла Сетцера III из Флориды в феврале 2024 года. Его мать Меган Гарсиа обнаружила, что перед смертью сын вёл тысячи диалогов с чат-ботом Character.AI, принявшим роль романтического партнёра.

По версии истца, бот не просто игнорировал тревожные сигналы — в переписке он фактически поощрял суицидальные мысли подростка. Character.AI — одна из крупнейших в мире платформ для ролевых чатов с ИИ-персонажами.

Аудитория превышает 20 миллионов активных пользователей, значительную долю которых составляют подростки. Платформа позволяет создавать любых персонажей и вести с ними открытые разговоры практически без ограничений. Критики давно фиксировали очевидную проблему: возрастная верификация остаётся формальной, контентные фильтры обходятся легко, а алгоритмы оптимизированы под вовлечённость, а не безопасность пользователей.

Бергман выбрал нестандартную правовую стратегию. Вместо атаки на компании как на платформы — что традиционно блокирует статья 230 Закона о порядочности в коммуникациях — он настаивает на ответственности производителя. По его аргументу, ИИ-чат-боты являются дефектными продуктами: они спроектированы так, чтобы формировать зависимость, и изначально не предусматривают базовой защиты уязвимых пользователей.

Этот подход уже частично сработал в делах против Meta и TikTok — там суды не отклонили иски ещё на стадии подачи. OpenAI фигурирует в претензиях потому, что её языковые модели лежат в основе ряда чат-ботов, которыми пользовались пострадавшие дети. Формально OpenAI — поставщик технологии, а не оператор конечных сервисов.

Именно здесь проходит ключевая правовая линия: несёт ли разработчик базовой модели совместную ответственность, если продукт, построенный на её основе, причинил вред? Компания пока воздерживается от публичных комментариев по конкретным искам. После волны публичной критики Character.

AI объявила о ряде защитных мер: напоминания о перерывах, рекомендации обратиться за помощью при выявлении суицидального контента, дополнительные ограничения для аккаунтов несовершеннолетних. Критики называют их косметическими — все меры легко обходятся, а фундаментальная бизнес-модель, заточенная на максимальное время взаимодействия, не изменилась. Правовые перспективы исков оцениваются по-разному.

Часть экспертов считает нормы об ответственности производителя неприменимыми к алгоритмическим продуктам. Другие возражают: несколько дел против соцсетей уже устояли, а Верховный суд в прошлом году отказался предоставить платформам широкий иммунитет по статье 230. Конгресс рассматривает несколько законопроектов об ответственности ИИ-компаний за вред несовершеннолетним, однако ни один пока не прошёл через комитеты.

Независимо от исходов конкретных дел, эта волна исков уже меняет поведение индустрии. Инвесторы требуют от ИИ-стартапов оценки правовых рисков, связанных с несовершеннолетними. Если Бергману удастся добиться хотя бы одного значимого решения, это может стать для ИИ-индустрии тем же, чем табачные иски стали для сигаретных компаний: точкой невозврата, после которой игнорировать безопасность окажется дороже, чем в неё инвестировать.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…