DeepSeek cuts DeepSeek-V4-Pro prices by 75%, reduces repeated requests cost by 10x
DeepSeek announced a 75% discount on its new flagship model DeepSeek-V4-Pro and simultaneously cut the cost of repeated and similar requests by 10 times through

DeepSeek резко снизила стоимость доступа к своей новой флагманской ИИ-модели DeepSeek-V4-Pro: для разработчиков компания объявила скидку 75 %. Параллельно она в десять раз уменьшила цену повторных и похожих запросов на всех своих платформах, используя кеширование входных данных. Для рынка ИИ это не косметическое обновление прайса, а сигнал, что конкуренция все сильнее смещается из зоны громких анонсов в зону реальной экономики использования моделей.
Речь идет сразу о двух изменениях. Первое — агрессивное удешевление доступа к DeepSeek-V4-Pro, которую компания продвигает как новую флагманскую модель. Второе — отдельное снижение стоимости для запросов, где значительная часть входных данных повторяется или почти не меняется.
В таких сценариях провайдеру не нужно заново обрабатывать весь массив текста с нуля, если система умеет распознавать и переиспользовать уже обработанные фрагменты. Для разработчиков это особенно важно в продуктах, где много длинных системных инструкций, шаблонных промптов и повторяющегося контекста. На практике выиграть от такого шага смогут не только крупные платформы, но и небольшие команды.
Многие прикладные ИИ-сервисы сегодня строятся вокруг одних и тех же сценариев: чат-ассистенты, поддержка клиентов, поиск по корпоративной базе знаний, генерация документов, агентские пайплайны с фиксированными ролями и правилами. Во всех этих случаях значительная часть запроса часто остается постоянной, а меняется только пользовательская реплика, документ или несколько параметров. Если именно такие запросы становятся в разы дешевле, то снижается стоимость каждой сессии, а вместе с ней — барьер для масштабирования продукта.
Отдельно важен эффект на unit-экономику. Для стартапов и команд, которые считают расходы на уровне каждого пользователя, API-цены часто определяют, можно ли вообще выводить функцию в продакшен. Даже сильная модель теряет привлекательность, если ее слишком дорого запускать на реальном трафике.
Скидка 75 % на флагманскую модель делает DeepSeek-V4-Pro заметно более доступной для тестов, пилотов и массового внедрения. А десятикратное удешевление похожих запросов создает дополнительный стимул проектировать продукты так, чтобы в них было больше переиспользуемого контекста и меньше лишней вариативности на уровне промптов. Есть и технический аспект.
Кеширование входных данных выгодно прежде всего тем системам, где статическая часть запроса велика: инструкции, политика ответа, описания инструментов, справочные блоки, история диалога, типовые документы. Чем больше такой стабильной структуры, тем выше потенциальная экономия. Это может подтолкнуть разработчиков пересмотреть архитектуру своих приложений: вынести неизменяемые фрагменты в шаблоны, аккуратнее работать с памятью диалога, сокращать шум в контексте и группировать похожие запросы.
То есть DeepSeek фактически удешевляет не только сам вызов модели, но и дисциплинированный подход к проектированию LLM-продуктов. Такой шаг вписывается и в более широкий контекст ценовой конкуренции на рынке генеративного ИИ. Провайдеры уже давно соревнуются не только в бенчмарках, длине контекста и мультимодальности, но и в том, сколько стоит один полезный сценарий для бизнеса.
Для корпоративных клиентов вопрос обычно формулируется просто: сколько будет стоить обработка тысячи диалогов, каталога документов, очереди обращений или одного бизнес-процесса от начала до конца. Если поставщик дает сопоставимое качество, но заметно более низкую цену, это быстро меняет воронку выбора модели. Поэтому DeepSeek сейчас делает ставку не только на технологию, но и на финансовую привлекательность своей экосистемы.
При этом экономический эффект будет неравномерным. Проекты с уникальными, редко повторяющимися запросами почувствуют снижение цен меньше, чем сервисы с большим объемом шаблонного трафика. Но даже в таком случае сама логика предложения важна: рынок получает понятный ориентир, что флагманская модель не обязательно должна оставаться дорогой по умолчанию.
А для компаний, которые используют сразу несколько провайдеров, это дополнительный повод сравнить не только качество ответов, но и структуру расходов на типовые операции. Что это значит: DeepSeek пытается выиграть не только качеством модели, но и стоимостью владения ею. Если компания удержит уровень DeepSeek-V4-Pro и одновременно сохранит такие условия для API, давление на конкурентов усилится.
Для разработчиков это хороший момент пересчитать экономику своих ИИ-функций, а для всего рынка — еще одно подтверждение, что следующая большая битва идет не за самый громкий релиз, а за самый выгодный способ довести модель до реального продукта.