DeepSeek presenta V4: modelo open-source chino desafía a OpenAI y Google
DeepSeek presentó una vista previa de V4 — un nuevo modelo open-source que la empresa posiciona junto a los sistemas OpenAI, Google y Anthropic. El enfoque prin

DeepSeek снова пытается сдвинуть рынок AI не громкими обещаниями, а релизом, который бьет сразу по нескольким болевым точкам индустрии. 24 апреля 2026 года китайская компания выпустила превью серии V4 и заявила, что новая open-source модель способна конкурировать с закрытыми системами OpenAI, Google и Anthropic. Для рынка это важная новость не только из-за самих моделей, но и потому, что DeepSeek делает ставку на кодинг, агентные сценарии и собственную китайскую вычислительную базу.
В серию вошли две версии: DeepSeek-V4-Pro и DeepSeek-V4-Flash. Первая — флагманская модель с 1,6 трлн параметров и 49 млрд активных параметров, вторая — более компактный вариант с 284 млрд параметров и 13 млрд активных. Обе поддерживают контекст до 1 млн токенов, а веса опубликованы по лицензии MIT, то есть компания продолжает курс на максимально открытое распространение своих моделей.
По собственному описанию DeepSeek, архитектура V4 заметно переработана: компания сделала упор на эффективность длинного контекста, устойчивость обучения и более сильное посттренировочное выравнивание под разные типы задач. Главный акцент в V4 — программирование. DeepSeek прямо говорит, что новое поколение стало заметно сильнее в кодинге, а именно эта способность сейчас лежит в основе AI-агентов, которые пишут, исправляют и запускают код.
На фоне роста инструментов вроде ChatGPT Codex и Claude Code это уже не второстепенный бенчмарк, а один из ключевых признаков того, насколько модель пригодна для реальной работы. В опубликованных DeepSeek тестах режим V4-Pro Max показывает 93,5% на LiveCodeBench и 80,6% на SWE Verified, а по части задач подбирается к лучшим закрытым моделям. Сама компания осторожно формулирует результат так: V4 не обязательно лидирует везде, но заметно сокращает разрыв между открытыми и закрытыми системами на задачах сложного рассуждения и в агентных сценариях.
Отдельная часть истории — железо. DeepSeek подчеркивает совместимость V4 с линейкой Huawei Ascend, и это делает запуск политически и индустриально более значимым, чем обычный апдейт модели. Еще год назад почти весь разговор о передовых AI-моделях вращался вокруг американских чипов и прежде всего Nvidia.
Теперь один из самых заметных китайских игроков старается показать, что конкурентоспособную модель можно не просто запустить в Китае, но и встроить в локальный стек — от обучения и инференса до оптимизации под отечественные ускорители. Для Huawei это важный сигнал: ее AI-инфраструктура становится не резервной опцией, а платформой для релизов первого эшелона. Контекст у этого анонса тоже сильный.
Год назад DeepSeek уже встряхнула американский AI-рынок моделью R1, заявив, что смогла обучить ее за существенно меньшие деньги, чем тратят лидеры отрасли в США. С V4 компания пока не раскрывает стоимость обучения и не уточняет полный стек использованного железа, поэтому вокруг релиза остается много вопросов. На этом фоне продолжается и политическое давление: американские чиновники ранее обвиняли DeepSeek в использовании запрещенных Nvidia-чипов, а Anthropic утверждала, что компания злоупотребляла доступом к Claude для улучшения собственных продуктов.
Доказанной прозрачности здесь по-прежнему мало, и это будет влиять на то, как V4 воспримут за пределами Китая. Главный вывод простой: V4 — это не просто еще одна модель в длинной ленте AI-релизов. DeepSeek пытается доказать сразу три вещи: open-source подход все еще способен догонять модели frontier-класса, кодинг становится центральной дисциплиной для LLM, а китайская AI-экосистема все меньше хочет зависеть от американского железа и закрытых API.
Если заявленные результаты подтвердятся на практике, рынок получит не только нового сильного open-source игрока, но и еще один аргумент в пользу того, что гонка AI теперь идет одновременно на уровне моделей, инструментов и чипов.