أقرّ ماسك تحت القسم: استخدمت xAI نماذج OpenAI للتقطير عند بناء أنظمتها
أكد إيلون ماسك تحت القسم عملياً أن xAI استخدمت نماذج OpenAI في تدريب أنظمتها الخاصة عبر تقنية التقطير. وأثناء رده على أسئلة المحامين، لم ينفِ هذه الواقعة وقال إ

Илон Маск в ходе показаний под присягой фактически подтвердил, что xAI использовала модели OpenAI для дистилляции при обучении собственных систем. Отвечая на вопросы адвокатов, он не стал отрицать факт использования конкурирующих моделей и заявил, что это стандартная практика для всей AI-индустрии.
Что произошло на допросе
Маск давал показания в рамках судебных разбирательств, связанных с его затяжным конфликтом с OpenAI. Показания были раскрыты в рамках процесса: из стенограммы следует, что адвокаты напрямую спрашивали, использовала ли xAI выходные данные моделей OpenAI при обучении Grok. Маск фактически подтвердил это, сославшись на отраслевую норму. Дистилляция — техника обучения нейросетей, при которой одна модель учится воспроизводить поведение другой, более крупной. Это позволяет создавать компактные и эффективные системы без огромных вычислительных затрат. Инструмент распространён в индустрии, но его применение в данном случае поднимает острые юридические вопросы. Условия использования OpenAI прямо запрещают применять выходные данные её моделей для обучения конкурирующих AI-систем. Если xAI нарушила этот пункт, речь идёт уже не об отраслевой норме, а о потенциальном нарушении договора.
Аргумент «все так делают»
Маск строил защиту вокруг тезиса о распространённости подобных практик. Это отчасти верно: границы вокруг данных для обучения AI остаются размытыми, и многие компании используют синтетически сгенерированные данные или дистилляцию от чужих моделей.
- OpenAI предположительно использовала данные YouTube при обучении GPT-4, несмотря на противоречие условиям платформы Meta выпустила Llama, в датасете которой обнаружились тексты, сгенерированные ChatGPT; впоследствии компания удалила их по требованию OpenAI Несколько китайских AI-стартапов обвинялись в дистилляции моделей OpenAI для создания дешёвых аналогов * Синтетические данные от одних моделей стали базовым сырьём для обучения других — и это редко раскрывается публично Тем не менее признание под присягой означает одно: Маск сам зафиксировал факт для суда. Теперь OpenAI может использовать его показания в своих интересах.
Конфликт
Маска и OpenAI Маск — один из основателей OpenAI, вложивший в компанию около 50 миллионов долларов на старте. В 2018 году он покинул совет директоров, сославшись на конфликт интересов с Tesla. После этого он последовательно атаковал компанию публично и в 2024 году подал на неё в суд — обвинив в отступлении от изначальной некоммерческой миссии. Параллельно с судебными исками Маск основал xAI и запустил Grok — конкурирующий чат-бот, доступный пользователям платформы X. На этом фоне признание того, что Grok мог обучаться на данных OpenAI, ставит его в неловкое положение: компания, которую он атакует в суде, оказалась частью его собственного технологического стека.
«Это стандартная практика для AI-лабораторий», — заявил
Маск в ходе допроса.
Что это значит
История поднимает вопрос, давно назревший в AI-индустрии: являются ли условия использования моделей юридически обязывающими, если их нарушение фактически непроверяемо? Если суд признает дистилляцию конкурирующих моделей нарушением договора, прецедент затронет всю отрасль — от крупных лабораторий до стартапов, строящих продукты поверх чужих API.