Elon Musk admet en cour que xAI a partiellement entraîné Grok sur les modèles d'OpenAI
Elon Musk a admis lors des audiences du procès contre OpenAI que xAI avait « partiellement » utilisé la distillation des modèles d'OpenAI lors de l'entraînement

Илон Маск на слушаниях в федеральном суде Калифорнии признал, что xAI действительно использовала модели OpenAI при обучении Grok. Для индустрии это одна из самых неудобных оговорок года: компании публично борются с дистилляцией, но в реальности, похоже, применяют её и друг к другу.
Признание в суде
Во время показаний Маска прямо спросили, использовала ли xAI методы дистилляции на моделях OpenAI, чтобы обучать Grok. На это он сначала ответил, что подобная практика в целом распространена среди AI-компаний. Когда вопрос уточнили и попросили сказать проще — значит ли это «да» — Маск ответил: «частично».
Так впервые на публичном уровне прозвучало признание того, что одна из самых заметных американских AI-компаний опиралась на результаты конкурента при обучении собственной модели. Это заявление прозвучало не на профильной конференции и не в подкасте, а в рамках суда, где сам Маск выступает истцом против OpenAI, Сэма Альтмана и Грега Брокмана. Он утверждает, что OpenAI отошла от исходной некоммерческой миссии и сместилась к коммерческой структуре.
На таком фоне признание про Grok выглядит особенно чувствительно: спор идёт не только о ценностях и структуре OpenAI, но и о том, как на самом деле устроена гонка между лабораториями.
Почему спор острый
Под дистилляцией обычно понимают обучение новой модели на ответах более сильной системы через публичный чат или API. Такой подход не даёт исходные веса, но помогает воспроизвести стиль ответов, логику и часть полезных паттернов поведения. Для небольших игроков это шанс срезать путь: не повторять весь дорогой цикл исследований и обучения с нуля, а взять поведение лидера как ориентир и быстрее получить почти сопоставимый результат.
«Частично», — ответил Маск на вопрос, использовала ли xAI дистилляцию моделей OpenAI для обучения Grok.
Именно поэтому тема стала настолько токсичной для лидеров рынка. OpenAI и Anthropic в последние месяцы всё активнее говорят о защите своих моделей от систематических запросов, с помощью которых конкуренты могут собирать большой массив ответов для обучения. До сих пор публичный фокус часто был на китайских компаниях, которые таким способом пытаются строить более дешёвые open-weight модели. Но показания Маска подтверждают то, о чём в отрасли давно догадывались: американские лаборатории, вероятно, тоже используют похожие приёмы друг против друга.
Что сказал
Маск Здесь важна юридическая деталь: дистилляция сама по себе может быть не прямо запрещена законом, но вполне способна нарушать условия использования сервисов. Именно здесь и проходит один из главных будущих конфликтов AI-рынка. Если практика не считается однозначно незаконной, то крупным компаниям придётся защищаться не столько через суды по авторскому праву, сколько через ограничения API, мониторинг подозрительных массовых запросов и отраслевые соглашения. Есть ещё несколько деталей, которые помогают понять контекст: * Сообщалось, что OpenAI, Anthropic и Google обмениваются информацией о борьбе с попытками дистилляции через Frontier Model Forum.
- Один из методов защиты — отслеживание подозрительных массовых запросов к моделям через чат и API.
- На момент публикации OpenAI не ответила на запрос о комментарии по поводу слов Маска.
- Позже в тех же показаниях Маск поставил Anthropic на первое место среди AI-компаний, за ней назвал OpenAI, Google и китайские open-source модели. * xAI он при этом описал как гораздо более компактную компанию с несколькими сотнями сотрудников. Эта часть показаний тоже важна. С одной стороны, Маск фактически признаёт зависимость молодой xAI от более сильных игроков на раннем этапе. С другой — показывает, насколько нормализованной стала идея «учиться» у конкурента через его публичный продукт. Для рынка это ещё один сигнал: гонка идёт не только в вычислениях и талантах, но и в том, кто лучше ограничит доступ к собственному поведению модели.
Что это значит
История с Grok показывает, что спор вокруг дистилляции давно вышел за пределы теории и геополитики. Пока крупные лаборатории говорят о защите от копирования, сами механики обучения остаются серой зоной, где конкуренты одновременно воюют друг с другом и заимствуют друг у друга. Для пользователей и бизнеса это значит, что борьба за лидерство в AI всё сильнее смещается от качества моделей к контролю над тем, кто и как может их переобучать.