مراهقون يقاضون xAI: Grok ولّد CSAM يتضمن صورًا لقاصرين
رفع ثلاثة مراهقين من تينيسي دعوى جماعية ضد xAI، شركة إيلون ماسك. ويقولون إن Grok ولّد صورًا ذات طابع جنسي لهم عندما كانوا قاصرين. وتزعم الدعوى أن إدارة xAI كانت

Три подростка из штата Теннесси подали коллективный иск против xAI — компании Илона Маска, разрабатывающей чат-бот Grok. Истцы обвиняют компанию в том, что её AI-система генерировала сексуализированные изображения и видеоматериалы с их участием в несовершеннолетнем возрасте. Центральный тезис: руководство xAI знало об этом риске ещё до того, как запустило соответствующую функцию.
Иск подан в понедельник и адресован лично Маску и другим топ-менеджерам xAI. Истцы настаивают: компания заранее осознавала, что Grok способен создавать материалы о сексуальном насилии над детьми (CSAM), но всё равно запустила так называемый «острый режим» (spicy mode) в 2025 году. По мнению заявителей, это решение было осознанным и преступно небрежным — xAI открыла возможность для генерации противозаконного контента, прикрыв её формальными возрастными ограничениями, которые оказались неэффективными.
Среди истцов — двое действующих несовершеннолетних и один совершеннолетний, который был ребёнком в момент описываемых событий. Один из пострадавших, фигурирующий в документах как «Джейн Доу 1», сообщает, что в декабре прошлого года обнаружила распространение в интернете явных ИИ-сгенерированных изображений с её участием. По её словам, никакого согласия на создание такого контента она не давала — он был сгенерирован Grok по запросам незнакомых ей пользователей.
«Острый режим» появился в Grok летом 2025 года. Функция позволяла модели создавать откровенный контент по запросу пользователя. xAI позиционировала её как инструмент для взрослых с декларируемой проверкой возраста.
Однако согласно материалам иска, ни одно из встроенных ограничений не предотвращало генерацию сексуализированного контента с реальными людьми, в том числе с детьми. Истцы утверждают, что xAI знала об этой уязвимости ещё до запуска и сознательно пошла на этот риск. Проблема ИИ-генерации CSAM — одна из наиболее острых в технологической индустрии.
В США действует федеральный закон PROTECT, криминализирующий создание и распространение виртуальных изображений сексуального насилия над детьми — даже если речь идёт о выдуманных персонажах. Когда контент создаётся с изображением реальных несовершеннолетних, правовые последствия многократно серьёзнее. Особую тревогу вызывает то, что жертвы зачастую узнают о существовании такого контента лишь спустя месяцы — алгоритмы распространения работают автономно.
Истцы добиваются статуса коллективного иска, что позволит другим пострадавшим присоединиться к делу по всей стране. xAI публичного комментария пока не дала — компания традиционно крайне редко взаимодействует с прессой. Grok интегрирован в платформу X (бывший Twitter) и доступен как самостоятельное приложение.
После нескольких волн критики функциональность «острого режима» корректировалась и ограничивалась — однако, судя по иску, принятых мер оказалось недостаточно. Иск против xAI вписывается в масштабный юридический тренд: жертвы ИИ-генерации всё активнее обращаются в суды. Ранее аналогичные дела затрагивали социальные платформы, не принявшие своевременных мер против deepfake-контента.
Теперь ответственность пытаются возложить на разработчиков генеративных моделей напрямую. Исход этого дела может задать важный прецедент и определить, насколько серьёзными правовыми последствиями грозит компаниям игнорирование вопросов безопасности при запуске мощных генеративных AI-систем.