Habr AI→ оригинал

Opus 4.7 من Anthropic يستهلك توكنات أكثر: تضخم مخفي بأسعار ثابتة

في Opus 4.7 من Anthropic، يتم ترميز النص نفسه إلى توكنات أكثر مقارنة بـ Opus 4.6. من الناحية الرسمية، لم تتغير الأسعار وحدود السياق، لكن عمليًا تزداد تكاليف API

Opus 4.7 من Anthropic يستهلك توكنات أكثر: تضخم مخفي بأسعار ثابتة
Источник: Habr AI. Коллаж: Hamidun News.

Anthropic выпустила Claude Opus 4.7, и первые тесты через API показали неожиданное: один и тот же текст в новой модели может занимать значительно больше токенов, чем в Opus 4.6. При формально неизменных ценах это означает незаметный, но реальный рост расходов.

В чём суть проблемы

Токенизатор — компонент, который разбивает текст на фрагменты перед подачей в модель. Именно количество этих фрагментов определяет стоимость запроса и объём занятого контекстного окна. Когда Anthropic меняет токенизатор между версиями, один и тот же промпт начинает «весить» иначе. В случае с Opus 4.7 вес вырос. Если раньше ваш типичный запрос занимал 1 000 токенов, теперь он может занимать 1 300–1 500. Цены за миллион токенов при этом не изменились — но вы фактически потребляете больше токенов за ту же работу.

«Получается скрытая инфляция: цены и лимиты указаны прежние, но на практике расходы могут возрасти» — из исследования команды Kodik.

Компания Kodik, разрабатывающая редактор кода с поддержкой разных AI-моделей, самостоятельно проверила поведение токенизатора через API. Официальных сравнительных данных от Anthropic не публиковалось, поэтому разработчики провели тесты сами и поделились выводами.

Какой контент затрагивается больше Прирост токенов неодинаков для разных типов текста.

На основе доступных данных картина выглядит так: Код — ощутимый прирост, особенно в языках с большим количеством специальных символов: операторы, скобки, отступы Технические строки (JSON, XML, YAML, SQL) — изменения варьируются в зависимости от структуры; вложенные конструкции могут расти сильнее Системные промпты — затрагиваются так же, как пользовательские запросы; для продуктов с длинными system-инструкциями это особенно чувствительно Обычный текст — рост умеренный, менее заметен на коротких запросах * Смешанный контент (текст + код + JSON) — поведение непредсказуемо, стоит тестировать под конкретный сценарий Важно учитывать масштаб: если промпт вырос на 20%, а в день у вас миллион запросов, реальный счёт изменится очень существенно.

Почему это системная проблема Ситуация с Opus 4.7 — не исключение.

Токенизатор может меняться в любой модели любого провайдера, и далеко не всегда это попадает в release notes явным образом. Для команд, строящих продукты поверх API, это создаёт несколько рисков. Бюджетные сюрпризы. Лимиты, рассчитанные на основе исторических данных, могут неожиданно пробиваться после смены модели — даже если сами запросы не изменились. Выход за контекстное окно. Система, которая раньше укладывалась в 128k токенов, после обновления может начать обрезать контекст или возвращать ошибку. Нечестные A/B-тесты. При сравнении качества двух версий модели на одних данных разный токенизатор означает, что модели получают технически разный вход — это влияет на интерпретацию результатов. Скрытый регресс в RAG-пайплайнах. Если вы упаковываете чанки по лимиту токенов, смена токенизатора может нарушить логику разбиения без единой ошибки в логах.

Что это значит

Разработчикам, которые уже используют Opus в production или планируют перейти на 4.7, стоит прогнать свои реальные промпты через tokenizer API обеих версий до переключения. Это займёт несколько часов, но позволит честно оценить рост расходов и скорректировать бюджет или архитектуру. Случай с Opus 4.7 — хорошее напоминание: при апгрейде модели проверяйте не только качество ответов, но и эффективность токенизации.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…