Anthropic обвинила DeepSeek и MiniMax в краже знаний своих моделей
Anthropic публично обвинила три китайские компании — DeepSeek, MiniMax и ещё одного неназванного разработчика — в том, что те «незаконно извлекали» результаты и

Компания Anthropic, создатель семейства моделей Claude и один из ключевых игроков в гонке за лидерство в сфере искусственного интеллекта, выступила с резким заявлением: по её данным, как минимум три крупных китайских AI-разработчика систематически «извлекали» результаты работы её моделей, чтобы затем использовать их для обучения и усиления собственных продуктов. Среди названных компаний — DeepSeek и MiniMax, два наиболее заметных китайских стартапа последнего времени. Имя третьего разработчика пока не раскрыто.
Речь идёт о практике, которую в индустрии называют дистилляцией. Суть её проста: вместо того чтобы тратить сотни миллионов долларов на обучение модели с нуля на огромных массивах данных, можно использовать уже готовую мощную модель в качестве «учителя». Вы подаёте ей запросы, собираете ответы, а затем на этих парах «вопрос — ответ» обучаете свою собственную, как правило более компактную, модель. Результат — система, которая воспроизводит значительную часть возможностей оригинала при существенно меньших затратах. Технически это не копирование весов нейросети и не взлом серверов, но Anthropic квалифицирует такие действия как нарушение условий использования своих сервисов и называет их «незаконным извлечением».
Контекст этого заявления невозможно понять без учёта стремительного взлёта DeepSeek, который за последний год превратился из малоизвестного стартапа в одного из самых обсуждаемых игроков мировой AI-индустрии. Модели DeepSeek продемонстрировали впечатляющие результаты на бенчмарках, сопоставимые с показателями ведущих западных систем, при этом компания позиционирует себя как разработчик, добивающийся эффективности при значительно меньших вычислительных ресурсах. MiniMax, в свою очередь, привлёк внимание инвесторов и пользователей благодаря мультимодальным возможностям и агрессивной стратегии выхода на международный рынок. Успехи обеих компаний вызывали вопросы у западных конкурентов: как удаётся достигать таких результатов в условиях жёстких экспортных ограничений на передовые чипы, введённых администрацией США?
Заявление Anthropic даёт один из возможных ответов — и этот ответ крайне неудобен для всей индустрии. Дистилляция как метод не является чем-то новым или секретным. Она активно используется внутри самих западных компаний: именно так создаются облегчённые версии моделей — те самые «mini» и «lite» варианты, которые работают на смартфонах и маломощных серверах. Проблема возникает тогда, когда дистилляцию проводит не владелец модели, а конкурент, фактически паразитируя на чужих инвестициях в исследования и вычисления. Anthropic, по разным оценкам, потратила миллиарды долларов на обучение своих моделей — и если значительная часть этих знаний может быть «перелита» в конкурирующий продукт через API за сравнительно скромные деньги, это ставит под вопрос саму экономическую модель разработки фронтирных AI-систем.
Для американских регуляторов и политиков это заявление станет ещё одним аргументом в пользу ужесточения контроля. Уже сейчас в Конгрессе обсуждаются законопроекты, которые могут ограничить доступ к передовым AI-моделям через API для пользователей из определённых юрисдикций. Администрация активно расширяет экспортный контроль, распространяя его не только на чипы, но и на программное обеспечение и даже на веса моделей. Обвинения Anthropic добавляют к этой дискуссии конкретный кейс, который легко превратить в политический нарратив о «краже американских технологий».
Впрочем, ситуация далеко не однозначна. Китайские компании наверняка оспорят обвинения, и юридическая сторона вопроса остаётся туманной. Условия использования API — это договор, а не закон, и их нарушение влечёт за собой блокировку аккаунта, а не уголовное преследование. Кроме того, провести чёткую границу между «дистилляцией» и «вдохновением результатами» технически крайне сложно. Если исследователь читает ответы Claude и на основе полученного понимания улучшает архитектуру собственной модели — это тоже дистилляция? Индустрии предстоит выработать консенсус по этому вопросу, и пока его нет, подобные обвинения будут оставаться в серой зоне.
Что действительно важно в этой истории — она обнажает фундаментальное противоречие эпохи. Компании вроде Anthropic одновременно хотят максимально широкого распространения своих моделей (это приносит доход и укрепляет экосистему) и контроля над тем, как именно результаты этих моделей используются. Эти два желания всё труднее совмещать. Каждый открытый API — это потенциальный канал утечки знаний. И пока не появятся надёжные технические или правовые механизмы защиты, гонка за AI-лидерство будет сопровождаться всё более острыми конфликтами между теми, кто создаёт модели, и теми, кто находит способы извлечь из них максимум — не спрашивая разрешения.