Wired→ оригинал

Musk admitió bajo juramento: xAI usó modelos de OpenAI para destilación al crear sus sistemas

Bajo juramento, Elon Musk confirmó en la práctica que xAI usó modelos de OpenAI para entrenar sus propios sistemas mediante la técnica de destilación. Al respon

Musk admitió bajo juramento: xAI usó modelos de OpenAI para destilación al crear sus sistemas
Источник: Wired. Коллаж: Hamidun News.

Илон Маск в ходе показаний под присягой фактически подтвердил, что xAI использовала модели OpenAI для дистилляции при обучении собственных систем. Отвечая на вопросы адвокатов, он не стал отрицать факт использования конкурирующих моделей и заявил, что это стандартная практика для всей AI-индустрии.

Что произошло на допросе

Маск давал показания в рамках судебных разбирательств, связанных с его затяжным конфликтом с OpenAI. Показания были раскрыты в рамках процесса: из стенограммы следует, что адвокаты напрямую спрашивали, использовала ли xAI выходные данные моделей OpenAI при обучении Grok. Маск фактически подтвердил это, сославшись на отраслевую норму. Дистилляция — техника обучения нейросетей, при которой одна модель учится воспроизводить поведение другой, более крупной. Это позволяет создавать компактные и эффективные системы без огромных вычислительных затрат. Инструмент распространён в индустрии, но его применение в данном случае поднимает острые юридические вопросы. Условия использования OpenAI прямо запрещают применять выходные данные её моделей для обучения конкурирующих AI-систем. Если xAI нарушила этот пункт, речь идёт уже не об отраслевой норме, а о потенциальном нарушении договора.

Аргумент «все так делают»

Маск строил защиту вокруг тезиса о распространённости подобных практик. Это отчасти верно: границы вокруг данных для обучения AI остаются размытыми, и многие компании используют синтетически сгенерированные данные или дистилляцию от чужих моделей.

  • OpenAI предположительно использовала данные YouTube при обучении GPT-4, несмотря на противоречие условиям платформы Meta выпустила Llama, в датасете которой обнаружились тексты, сгенерированные ChatGPT; впоследствии компания удалила их по требованию OpenAI Несколько китайских AI-стартапов обвинялись в дистилляции моделей OpenAI для создания дешёвых аналогов * Синтетические данные от одних моделей стали базовым сырьём для обучения других — и это редко раскрывается публично Тем не менее признание под присягой означает одно: Маск сам зафиксировал факт для суда. Теперь OpenAI может использовать его показания в своих интересах.

Конфликт

Маска и OpenAI Маск — один из основателей OpenAI, вложивший в компанию около 50 миллионов долларов на старте. В 2018 году он покинул совет директоров, сославшись на конфликт интересов с Tesla. После этого он последовательно атаковал компанию публично и в 2024 году подал на неё в суд — обвинив в отступлении от изначальной некоммерческой миссии. Параллельно с судебными исками Маск основал xAI и запустил Grok — конкурирующий чат-бот, доступный пользователям платформы X. На этом фоне признание того, что Grok мог обучаться на данных OpenAI, ставит его в неловкое положение: компания, которую он атакует в суде, оказалась частью его собственного технологического стека.

«Это стандартная практика для AI-лабораторий», — заявил

Маск в ходе допроса.

Что это значит

История поднимает вопрос, давно назревший в AI-индустрии: являются ли условия использования моделей юридически обязывающими, если их нарушение фактически непроверяемо? Если суд признает дистилляцию конкурирующих моделей нарушением договора, прецедент затронет всю отрасль — от крупных лабораторий до стартапов, строящих продукты поверх чужих API.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…