Anthropic Claude не спасает от плохого ТЗ: почему AI выдает убедительный, но слабый результат
Большой промпт не гарантирует хороший ответ. На примере Claude автор объясняет, что AI чаще выдает правдоподобный текст, чем реально полезный результат, если за

Большие промпты, роли и заклинания вроде think carefully не гарантируют хороший ответ от AI. На примере работы с Claude автор разбирает, почему модель часто ускоряет выпуск правдоподобного текста, но не доводит до полезного результата, если сама задача не определена.
Почему это не работает Главная претензия проста: AI редко спорит с плохой постановкой.
Если дизайнер, аналитик или разработчик обычно вернутся с уточняющими вопросами, то модель чаще достроит недостающий контекст сама и выдаст уверенный ответ. Поэтому пользователю кажется, что работа идет быстро, хотя по факту ускоряется не производство качественного результата, а производство текста, который выглядит убедительно. Отсюда и чувство усталости после длинных итераций: ты тратишь час на переписывание того, что должен был получить с первой или второй попытки.
«Промпт — не молитва».
Автор связывает это с переворотом в стоимости действий. Раньше дорого было делать, а думать и обсуждать — относительно дешево. Теперь AI за секунды создает пять вариантов анализа, письма или стратегии, зато обсуждение задачи командой из нескольких человек становится самой дорогой частью процесса. Из-за этого появляется иллюзия, что можно пропустить этап нормальной постановки и сразу перейти к генерации. Но длинный промпт не заменяет ясную цель, а магические формулы не лечат отсутствие структуры.
Четыре вопроса до чата
Вместо поиска идеальной формулировки автор предлагает вернуть базовую дисциплину бизнес-анализа и перед началом работы собрать карту задачи. Ее логика строится вокруг подхода As-Is, To-Be, Gap: что у нас есть сейчас, каким должен быть итог и что отделяет одно от другого. Такой каркас полезен не только для сложных исследований, но и для повседневых задач вроде анализа конкурентов, подготовки структуры статьи или разбора пользовательских интервью. Смысл в том, чтобы описывать не общую надежду на хороший ответ, а конкретный маршрут к нему.
- Вход: какие данные, ссылки, документы, гипотезы и наблюдения уже есть у тебя на старте.
- Этапы: какие действия модель должна выполнить по порядку, без расплывчатого «проанализируй».
- Выход каждого этапа: что именно должно получиться после каждого шага — таблица, список, матрица, черновик.
- Финальный результат: как выглядит готовая работа и по какому критерию ты примешь ее без ощущения «вроде нормально». На практике это меняет и сам формат взаимодействия с моделью. Вместо одного огромного промпта лучше строить конвейер из нескольких шагов с промежуточной приемкой: сначала сбор фактов, потом сравнение, затем поиск пустых сегментов и только после этого выводы. В примере с конкурентным анализом такой подход превращает абстрактную просьбу в последовательность небольших задач, где легче поймать ошибку раньше, чем в финальном тексте.
Как это собирают в Claude Для себя автор упаковал этот подход в отдельный Claude-скилл.
Сначала он проверяет, что вообще требуется: одноразовый ответ или промпт для повторного использования. Затем идет карта As-Is, To-Be, Gap, после чего система оценивает полноту запроса по нескольким обязательным элементам — цели, аудитории, формату, ограничениям и контексту. Если данных не хватает, модель не генерирует красивый текст сразу, а задает уточняющие вопросы.
Ключевой шаг здесь — Confirmation Gate: перед работой AI показывает, как понял задачу, и ждет явного подтверждения. Дальше итоговый промпт собирается в структурированный шаблон по схеме Context, Role, Instructions, Style, Parameters. Автор отдельно подчеркивает важность негативных ограничений, few-shot примеров и точечной итерации по конкретной ошибке, а не по ощущению «стало лучше».
Если результат получился слишком общим, исправлять нужно не настроение запроса, а правило: добавить метрики, запретить банальные фразы, потребовать четкий формат ответа. Такой режим делает промптинг ближе не к творческому гаданию, а к инженерной настройке процесса.
Что это значит
Главный вывод жесткий, но полезный: AI усиливает не только хорошие решения, но и плохую постановку. Для команд это сигнал перестать мерить эффективность количеством сгенерированных вариантов и начать требовать карту задачи, промежуточную приемку и критерии готовности. Чем дешевле становится генерация, тем дороже становится ясное мышление — и именно оно теперь дает наибольший выигрыш.