The Verge→ оригинал

Adolescentes demandan a xAI: Grok generó CSAM con imágenes de menores

Tres adolescentes de Tennessee presentaron una demanda colectiva contra xAI, la empresa de Elon Musk. Según ellos, Grok generó imágenes sexualizadas de ellos cu

Adolescentes demandan a xAI: Grok generó CSAM con imágenes de menores
Источник: The Verge. Коллаж: Hamidun News.

Три подростка из штата Теннесси подали коллективный иск против xAI — компании Илона Маска, разрабатывающей чат-бот Grok. Истцы обвиняют компанию в том, что её AI-система генерировала сексуализированные изображения и видеоматериалы с их участием в несовершеннолетнем возрасте. Центральный тезис: руководство xAI знало об этом риске ещё до того, как запустило соответствующую функцию.

Иск подан в понедельник и адресован лично Маску и другим топ-менеджерам xAI. Истцы настаивают: компания заранее осознавала, что Grok способен создавать материалы о сексуальном насилии над детьми (CSAM), но всё равно запустила так называемый «острый режим» (spicy mode) в 2025 году. По мнению заявителей, это решение было осознанным и преступно небрежным — xAI открыла возможность для генерации противозаконного контента, прикрыв её формальными возрастными ограничениями, которые оказались неэффективными.

Среди истцов — двое действующих несовершеннолетних и один совершеннолетний, который был ребёнком в момент описываемых событий. Один из пострадавших, фигурирующий в документах как «Джейн Доу 1», сообщает, что в декабре прошлого года обнаружила распространение в интернете явных ИИ-сгенерированных изображений с её участием. По её словам, никакого согласия на создание такого контента она не давала — он был сгенерирован Grok по запросам незнакомых ей пользователей.

«Острый режим» появился в Grok летом 2025 года. Функция позволяла модели создавать откровенный контент по запросу пользователя. xAI позиционировала её как инструмент для взрослых с декларируемой проверкой возраста.

Однако согласно материалам иска, ни одно из встроенных ограничений не предотвращало генерацию сексуализированного контента с реальными людьми, в том числе с детьми. Истцы утверждают, что xAI знала об этой уязвимости ещё до запуска и сознательно пошла на этот риск. Проблема ИИ-генерации CSAM — одна из наиболее острых в технологической индустрии.

В США действует федеральный закон PROTECT, криминализирующий создание и распространение виртуальных изображений сексуального насилия над детьми — даже если речь идёт о выдуманных персонажах. Когда контент создаётся с изображением реальных несовершеннолетних, правовые последствия многократно серьёзнее. Особую тревогу вызывает то, что жертвы зачастую узнают о существовании такого контента лишь спустя месяцы — алгоритмы распространения работают автономно.

Истцы добиваются статуса коллективного иска, что позволит другим пострадавшим присоединиться к делу по всей стране. xAI публичного комментария пока не дала — компания традиционно крайне редко взаимодействует с прессой. Grok интегрирован в платформу X (бывший Twitter) и доступен как самостоятельное приложение.

После нескольких волн критики функциональность «острого режима» корректировалась и ограничивалась — однако, судя по иску, принятых мер оказалось недостаточно. Иск против xAI вписывается в масштабный юридический тренд: жертвы ИИ-генерации всё активнее обращаются в суды. Ранее аналогичные дела затрагивали социальные платформы, не принявшие своевременных мер против deepfake-контента.

Теперь ответственность пытаются возложить на разработчиков генеративных моделей напрямую. Исход этого дела может задать важный прецедент и определить, насколько серьёзными правовыми последствиями грозит компаниям игнорирование вопросов безопасности при запуске мощных генеративных AI-систем.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…