The Verge→ оригинал

Подростки подали иск против xAI: Grok генерировал CSAM с изображением несовершеннолетних

Три подростка из Теннесси подали коллективный иск против xAI — компании Илона Маска. По их словам, Grok сгенерировал сексуализированные изображения с ними в нес

Подростки подали иск против xAI: Grok генерировал CSAM с изображением несовершеннолетних
Источник: The Verge. Коллаж: Hamidun News.

Три подростка из штата Теннесси подали коллективный иск против xAI — компании Илона Маска, разрабатывающей чат-бот Grok. Истцы обвиняют компанию в том, что её AI-система генерировала сексуализированные изображения и видеоматериалы с их участием в несовершеннолетнем возрасте. Центральный тезис: руководство xAI знало об этом риске ещё до того, как запустило соответствующую функцию.

Иск подан в понедельник и адресован лично Маску и другим топ-менеджерам xAI. Истцы настаивают: компания заранее осознавала, что Grok способен создавать материалы о сексуальном насилии над детьми (CSAM), но всё равно запустила так называемый «острый режим» (spicy mode) в 2025 году. По мнению заявителей, это решение было осознанным и преступно небрежным — xAI открыла возможность для генерации противозаконного контента, прикрыв её формальными возрастными ограничениями, которые оказались неэффективными.

Среди истцов — двое действующих несовершеннолетних и один совершеннолетний, который был ребёнком в момент описываемых событий. Один из пострадавших, фигурирующий в документах как «Джейн Доу 1», сообщает, что в декабре прошлого года обнаружила распространение в интернете явных ИИ-сгенерированных изображений с её участием. По её словам, никакого согласия на создание такого контента она не давала — он был сгенерирован Grok по запросам незнакомых ей пользователей.

«Острый режим» появился в Grok летом 2025 года. Функция позволяла модели создавать откровенный контент по запросу пользователя. xAI позиционировала её как инструмент для взрослых с декларируемой проверкой возраста.

Однако согласно материалам иска, ни одно из встроенных ограничений не предотвращало генерацию сексуализированного контента с реальными людьми, в том числе с детьми. Истцы утверждают, что xAI знала об этой уязвимости ещё до запуска и сознательно пошла на этот риск. Проблема ИИ-генерации CSAM — одна из наиболее острых в технологической индустрии.

В США действует федеральный закон PROTECT, криминализирующий создание и распространение виртуальных изображений сексуального насилия над детьми — даже если речь идёт о выдуманных персонажах. Когда контент создаётся с изображением реальных несовершеннолетних, правовые последствия многократно серьёзнее. Особую тревогу вызывает то, что жертвы зачастую узнают о существовании такого контента лишь спустя месяцы — алгоритмы распространения работают автономно.

Истцы добиваются статуса коллективного иска, что позволит другим пострадавшим присоединиться к делу по всей стране. xAI публичного комментария пока не дала — компания традиционно крайне редко взаимодействует с прессой. Grok интегрирован в платформу X (бывший Twitter) и доступен как самостоятельное приложение.

После нескольких волн критики функциональность «острого режима» корректировалась и ограничивалась — однако, судя по иску, принятых мер оказалось недостаточно. Иск против xAI вписывается в масштабный юридический тренд: жертвы ИИ-генерации всё активнее обращаются в суды. Ранее аналогичные дела затрагивали социальные платформы, не принявшие своевременных мер против deepfake-контента.

Теперь ответственность пытаются возложить на разработчиков генеративных моделей напрямую. Исход этого дела может задать важный прецедент и определить, насколько серьёзными правовыми последствиями грозит компаниям игнорирование вопросов безопасности при запуске мощных генеративных AI-систем.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…