Anthropic cambió el carácter de Claude Opus 4.7—y algunos desarrolladores vieron una regresión
Anthropic lanzó Claude Opus 4.7 con el mismo precio y benchmarks sólidos, pero la reacción de la comunidad fue dura. Los desarrolladores se quejan de que el mod

Anthropic 16 апреля 2026 года выпустила Claude Opus 4.7 и оставила цену прежней, но уже через сутки часть разработчиков назвала апдейт регрессом. Причина не в одном провале на бенчмарке, а в смене поведения модели: она стала суше, буквальнее и заметно охотнее спорит с пользователем.
Почему реакция резкая На бумаге релиз выглядел очень сильным.
Anthropic заявила победы в 12 из 14 бенчмарков, прирост на SWE-bench Verified, MCP-Atlas и ряде других тестов, а также улучшения для vision и долгих агентских задач. Цена при этом осталась прежней. Но почти сразу после запуска Reddit и X заполнили жалобы: пользователи писали, что **Claude Opus 4.
7** чаще спорит с инструкцией, отказывается от простых действий и иногда уверенно защищает неверный ответ вместо того, чтобы просто признать ошибку. Проблема оказалась не столько в «качестве вообще», сколько в несовпадении между новым характером модели и привычным способом работы с ней. Там, где раньше Claude был слишком соглашательным, теперь он стал жёстче и буквальнее.
Для части задач это плюс, но для рутинной разработки получилось наоборот: модель начинает спорить о мелочах, тормозит поток работы и добавляет шум. Один из авторов обзоров точно сформулировал претензию сообщества: > «Модель спорит без остановки и галлюцинирует по ходу спора».
Семь новых дефолтов
Главный вывод из релиза такой: Anthropic поменяла не только метрики, но и базовые настройки поведения. Если команда долго тюнила промпты под Opus 4.6, переход на 4.
7 может сломать уже рабочий пайплайн даже без изменений в API. Это и есть новый тип breaking change для LLM: интерфейс тот же, а модель интерпретирует задачу иначе. более буквальное следование инструкциям вместо чтения между строк длина ответа теперь сильнее зависит от того, как модель сама оценила сложность задачи по умолчанию стало меньше вызовов инструментов и меньше делегирования подзадач промежуточные апдейты о ходе работы модель чаще даёт сама, без дополнительного scaffolding * усилились киберзащита и фильтры, а тон ответов стал суше и менее «поддакивающим» Из-за этого старые промпты с расплывчатыми формулировками вроде «сделай красиво» работают хуже.
То, что раньше компенсировалось догадливостью модели, теперь нужно описывать как ТЗ: формат ответа, ограничения, желаемую глубину, правила по инструментам и границы безопасности. Anthropic сама рекомендует прогонять регрессионные тесты на реальном трафике перед миграцией, и в случае 4.7 это звучит не как формальность, а как обязательный шаг.
Где лучше, где хуже У апдейта есть очевидные сильные стороны.
По описанию Anthropic и по первым отзывам, 4.7 лучше держит длинную нить в агентских сценариях, увереннее работает на high и xhigh effort, сильнее в multi-file refactor и заметно выигрывает в vision: лимит входного изображения вырос примерно до 3.75 мегапикселя против прежних 1.
15. Для задач, где важны автономность, самопроверка и длинный горизонт планирования, такая модель действительно может быть полезнее Opus 4.6.
Слабые стороны проявились в повседневной работе разработчика. Простые правки вроде переименования переменных, добавления null check или локального рефакторинга чаще превращаются в спор с ассистентом. Отдельно пользователи жалуются на рост расхода токенов, из-за чего те же сценарии становятся дороже, и на ухудшение long-context retrieval.
На этом фоне подозрения вызывает и safety-компромисс: Anthropic прямо писала, что во время обучения выборочно ослабляла часть кибервозможностей и добавляла автоматические safeguards, а более сильный вариант оставила партнёрам. Дополнительно компания тихо убрала Claude Code из Pro-плана за 20 долларов 21 апреля 2026 года, усилив ощущение, что условия для обычных пользователей стали хуже.
Что это значит
История с Claude Opus 4.7 показывает, что новые версии LLM теперь нужно оценивать не только по бенчмаркам, но и по изменению «характера» модели. Если раньше промпт можно было писать как просьбу коллеге, то теперь всё чаще нужен формат точного ТЗ. Для команд это значит одно: перед апгрейдом модели надо тестировать не абстрактный интеллект, а свой реальный workflow.