Opus 4.7 de Anthropic consume más tokens: inflación oculta con precios sin cambios
En Opus 4.7 de Anthropic, el mismo texto se tokeniza en más tokens que en Opus 4.6. Formalmente, los precios y límites de contexto no han cambiado, pero en la p

Anthropic выпустила Claude Opus 4.7, и первые тесты через API показали неожиданное: один и тот же текст в новой модели может занимать значительно больше токенов, чем в Opus 4.6. При формально неизменных ценах это означает незаметный, но реальный рост расходов.
В чём суть проблемы
Токенизатор — компонент, который разбивает текст на фрагменты перед подачей в модель. Именно количество этих фрагментов определяет стоимость запроса и объём занятого контекстного окна. Когда Anthropic меняет токенизатор между версиями, один и тот же промпт начинает «весить» иначе. В случае с Opus 4.7 вес вырос. Если раньше ваш типичный запрос занимал 1 000 токенов, теперь он может занимать 1 300–1 500. Цены за миллион токенов при этом не изменились — но вы фактически потребляете больше токенов за ту же работу.
«Получается скрытая инфляция: цены и лимиты указаны прежние, но на практике расходы могут возрасти» — из исследования команды Kodik.
Компания Kodik, разрабатывающая редактор кода с поддержкой разных AI-моделей, самостоятельно проверила поведение токенизатора через API. Официальных сравнительных данных от Anthropic не публиковалось, поэтому разработчики провели тесты сами и поделились выводами.
Какой контент затрагивается больше Прирост токенов неодинаков для разных типов текста.
На основе доступных данных картина выглядит так: Код — ощутимый прирост, особенно в языках с большим количеством специальных символов: операторы, скобки, отступы Технические строки (JSON, XML, YAML, SQL) — изменения варьируются в зависимости от структуры; вложенные конструкции могут расти сильнее Системные промпты — затрагиваются так же, как пользовательские запросы; для продуктов с длинными system-инструкциями это особенно чувствительно Обычный текст — рост умеренный, менее заметен на коротких запросах * Смешанный контент (текст + код + JSON) — поведение непредсказуемо, стоит тестировать под конкретный сценарий Важно учитывать масштаб: если промпт вырос на 20%, а в день у вас миллион запросов, реальный счёт изменится очень существенно.
Почему это системная проблема Ситуация с Opus 4.7 — не исключение.
Токенизатор может меняться в любой модели любого провайдера, и далеко не всегда это попадает в release notes явным образом. Для команд, строящих продукты поверх API, это создаёт несколько рисков. Бюджетные сюрпризы. Лимиты, рассчитанные на основе исторических данных, могут неожиданно пробиваться после смены модели — даже если сами запросы не изменились. Выход за контекстное окно. Система, которая раньше укладывалась в 128k токенов, после обновления может начать обрезать контекст или возвращать ошибку. Нечестные A/B-тесты. При сравнении качества двух версий модели на одних данных разный токенизатор означает, что модели получают технически разный вход — это влияет на интерпретацию результатов. Скрытый регресс в RAG-пайплайнах. Если вы упаковываете чанки по лимиту токенов, смена токенизатора может нарушить логику разбиения без единой ошибки в логах.
Что это значит
Разработчикам, которые уже используют Opus в production или планируют перейти на 4.7, стоит прогнать свои реальные промпты через tokenizer API обеих версий до переключения. Это займёт несколько часов, но позволит честно оценить рост расходов и скорректировать бюджет или архитектуру. Случай с Opus 4.7 — хорошее напоминание: при апгрейде модели проверяйте не только качество ответов, но и эффективность токенизации.