Musk a reconnu sous serment : xAI a utilisé des modèles d’OpenAI pour la distillation lors de la création de ses systèmes
Sous serment, Elon Musk a de fait confirmé que xAI avait utilisé des modèles d’OpenAI pour entraîner ses propres systèmes via la technique de distillation. Répo

Илон Маск в ходе показаний под присягой фактически подтвердил, что xAI использовала модели OpenAI для дистилляции при обучении собственных систем. Отвечая на вопросы адвокатов, он не стал отрицать факт использования конкурирующих моделей и заявил, что это стандартная практика для всей AI-индустрии.
Что произошло на допросе
Маск давал показания в рамках судебных разбирательств, связанных с его затяжным конфликтом с OpenAI. Показания были раскрыты в рамках процесса: из стенограммы следует, что адвокаты напрямую спрашивали, использовала ли xAI выходные данные моделей OpenAI при обучении Grok. Маск фактически подтвердил это, сославшись на отраслевую норму. Дистилляция — техника обучения нейросетей, при которой одна модель учится воспроизводить поведение другой, более крупной. Это позволяет создавать компактные и эффективные системы без огромных вычислительных затрат. Инструмент распространён в индустрии, но его применение в данном случае поднимает острые юридические вопросы. Условия использования OpenAI прямо запрещают применять выходные данные её моделей для обучения конкурирующих AI-систем. Если xAI нарушила этот пункт, речь идёт уже не об отраслевой норме, а о потенциальном нарушении договора.
Аргумент «все так делают»
Маск строил защиту вокруг тезиса о распространённости подобных практик. Это отчасти верно: границы вокруг данных для обучения AI остаются размытыми, и многие компании используют синтетически сгенерированные данные или дистилляцию от чужих моделей.
- OpenAI предположительно использовала данные YouTube при обучении GPT-4, несмотря на противоречие условиям платформы Meta выпустила Llama, в датасете которой обнаружились тексты, сгенерированные ChatGPT; впоследствии компания удалила их по требованию OpenAI Несколько китайских AI-стартапов обвинялись в дистилляции моделей OpenAI для создания дешёвых аналогов * Синтетические данные от одних моделей стали базовым сырьём для обучения других — и это редко раскрывается публично Тем не менее признание под присягой означает одно: Маск сам зафиксировал факт для суда. Теперь OpenAI может использовать его показания в своих интересах.
Конфликт
Маска и OpenAI Маск — один из основателей OpenAI, вложивший в компанию около 50 миллионов долларов на старте. В 2018 году он покинул совет директоров, сославшись на конфликт интересов с Tesla. После этого он последовательно атаковал компанию публично и в 2024 году подал на неё в суд — обвинив в отступлении от изначальной некоммерческой миссии. Параллельно с судебными исками Маск основал xAI и запустил Grok — конкурирующий чат-бот, доступный пользователям платформы X. На этом фоне признание того, что Grok мог обучаться на данных OpenAI, ставит его в неловкое положение: компания, которую он атакует в суде, оказалась частью его собственного технологического стека.
«Это стандартная практика для AI-лабораторий», — заявил
Маск в ходе допроса.
Что это значит
История поднимает вопрос, давно назревший в AI-индустрии: являются ли условия использования моделей юридически обязывающими, если их нарушение фактически непроверяемо? Если суд признает дистилляцию конкурирующих моделей нарушением договора, прецедент затронет всю отрасль — от крупных лабораторий до стартапов, строящих продукты поверх чужих API.