Франция вызвала Илона Маска по делу X о дипфейках и материалах с насилием над детьми
Французские прокуроры вызвали Илона Маска и бывшую CEO X Линду Яккарино на добровольные беседы в рамках уголовного расследования против платформы. Дело касается

Французская прокуратура вызвала Илона Маска в Париж на добровольную беседу по делу против X. Вместе с ним на опрос пригласили бывшую главу платформы Линду Яккарино, а сотрудников компании на этой неделе допрашивают как свидетелей.
Зачем вызвали руководство Расследование ведёт киберподразделение прокуратуры Парижа.
Формально речь пока не о предъявлении обвинений, а о добровольных беседах: следователи хотят получить позицию руководства X как лиц, управлявших платформой в период, когда, по версии прокуратуры, происходили спорные события. Французские власти отдельно подчёркивают, что даже возможная неявка не остановит дело. Маска вызывают не как стороннего наблюдателя, а как владельца и фактического управляющего сервиса, который работает на территории Франции и обязан соблюдать местное право. Одновременно власти собирают показания сотрудников X во Франции. Такой формат показывает, что прокуратура смотрит не на единичный пост или один конкретный аккаунт, а на внутренние процессы платформы: как устроена модерация, какие решения принимались по алгоритмам, как реагировали на жалобы и какие меры компания предпринимала после скандалов вокруг Grok и запрещённого контента.
Что проверяют следователи Прокуроры изучают сразу несколько направлений.
По материалам дела и публикациям французских и международных СМИ, следствие интересуют не только сексуализированные дипфейки, но и более широкий набор претензий к X и связанному с ней чат-боту Grok. предполагаемое содействие хранению и распространению изображений сексуализированного насилия над детьми генерация и распространение сексуализированных дипфейков без согласия изображённых людей возможное искажение работы автоматизированной системы через изменения алгоритмов рекомендаций публикации Grok, которые французские власти связывают с отрицанием преступлений против человечности * меры комплаенса: как X выявляет нарушения и что делает после жалоб Французская прокуратура подчёркивает, что задача нынешнего этапа — услышать объяснения менеджмента и понять, какие меры X готова внедрить.
«Эти беседы должны дать руководству возможность изложить свою позицию».
Сама компания ранее отрицала нарушения и называла расследование политизированным.
Как дело разрослось История началась не с дипфейков.
Первые сигналы в прокуратуру поступили ещё 12 января 2025 года: французский депутат Эрик Боторель и чиновник, работающий с киберпреступностью, заявили, что изменения в рекомендационных алгоритмах X могли искажать работу платформы. Летом 2025 года прокуратура открыла предварительное расследование, а в феврале 2026-го французские силовики уже провели обыск в парижском офисе X при поддержке Europol. Затем фокус расширился.
По данным Le Monde, следователи отдельно изучают, как X изменила инструменты выявления материалов с сексуализированным насилием над детьми: платформа отказалась от системы Safer от Thorn в пользу собственного решения, после чего число репортов по Франции в американский центр NCMEC, по версии прокуратуры, упало на 81,4% за июнь—октябрь 2025 года. На этом фоне вспыхнул и скандал вокруг Grok, который, как утверждают регуляторы и исследователи, генерировал сексуализированные дипфейки женщин и несовершеннолетних по простым текстовым запросам. Дополнительное напряжение создаёт международный контекст.
В ЕС и Великобритании уже шли отдельные проверки X и xAI из-за дипфейков, обработки персональных данных и механизмов модерации. Для Франции это дело стало проверкой того, насколько жёстко государство готово применять уголовное право к глобальным цифровым платформам, если их продукты, алгоритмы или защитные системы, по мнению следствия, системно способствуют нарушениям.
Что это значит
История вокруг X показывает, что претензии к AI-сервисам быстро переходят из плоскости контент-модерации в уголовно-правовую. Если французское расследование пойдёт дальше, это станет сигналом для X, xAI и других платформ: ответственность теперь оценивают не только по постам пользователей, но и по архитектуре продукта, настройке алгоритмов и качеству защитных систем.