Adolescentes processam a xAI: Grok gerou CSAM com imagens de menores
Três adolescentes do Tennessee entraram com uma ação coletiva contra a xAI — empresa de Elon Musk. Segundo eles, o Grok gerou imagens sexualizadas deles quando

Три подростка из штата Теннесси подали коллективный иск против xAI — компании Илона Маска, разрабатывающей чат-бот Grok. Истцы обвиняют компанию в том, что её AI-система генерировала сексуализированные изображения и видеоматериалы с их участием в несовершеннолетнем возрасте. Центральный тезис: руководство xAI знало об этом риске ещё до того, как запустило соответствующую функцию.
Иск подан в понедельник и адресован лично Маску и другим топ-менеджерам xAI. Истцы настаивают: компания заранее осознавала, что Grok способен создавать материалы о сексуальном насилии над детьми (CSAM), но всё равно запустила так называемый «острый режим» (spicy mode) в 2025 году. По мнению заявителей, это решение было осознанным и преступно небрежным — xAI открыла возможность для генерации противозаконного контента, прикрыв её формальными возрастными ограничениями, которые оказались неэффективными.
Среди истцов — двое действующих несовершеннолетних и один совершеннолетний, который был ребёнком в момент описываемых событий. Один из пострадавших, фигурирующий в документах как «Джейн Доу 1», сообщает, что в декабре прошлого года обнаружила распространение в интернете явных ИИ-сгенерированных изображений с её участием. По её словам, никакого согласия на создание такого контента она не давала — он был сгенерирован Grok по запросам незнакомых ей пользователей.
«Острый режим» появился в Grok летом 2025 года. Функция позволяла модели создавать откровенный контент по запросу пользователя. xAI позиционировала её как инструмент для взрослых с декларируемой проверкой возраста.
Однако согласно материалам иска, ни одно из встроенных ограничений не предотвращало генерацию сексуализированного контента с реальными людьми, в том числе с детьми. Истцы утверждают, что xAI знала об этой уязвимости ещё до запуска и сознательно пошла на этот риск. Проблема ИИ-генерации CSAM — одна из наиболее острых в технологической индустрии.
В США действует федеральный закон PROTECT, криминализирующий создание и распространение виртуальных изображений сексуального насилия над детьми — даже если речь идёт о выдуманных персонажах. Когда контент создаётся с изображением реальных несовершеннолетних, правовые последствия многократно серьёзнее. Особую тревогу вызывает то, что жертвы зачастую узнают о существовании такого контента лишь спустя месяцы — алгоритмы распространения работают автономно.
Истцы добиваются статуса коллективного иска, что позволит другим пострадавшим присоединиться к делу по всей стране. xAI публичного комментария пока не дала — компания традиционно крайне редко взаимодействует с прессой. Grok интегрирован в платформу X (бывший Twitter) и доступен как самостоятельное приложение.
После нескольких волн критики функциональность «острого режима» корректировалась и ограничивалась — однако, судя по иску, принятых мер оказалось недостаточно. Иск против xAI вписывается в масштабный юридический тренд: жертвы ИИ-генерации всё активнее обращаются в суды. Ранее аналогичные дела затрагивали социальные платформы, не принявшие своевременных мер против deepfake-контента.
Теперь ответственность пытаются возложить на разработчиков генеративных моделей напрямую. Исход этого дела может задать важный прецедент и определить, насколько серьёзными правовыми последствиями грозит компаниям игнорирование вопросов безопасности при запуске мощных генеративных AI-систем.