Habr AI→ оригинал

Anthropic Claude Won't Save You From Bad Requirements: Why AI Delivers Convincing But Weak Results

A large prompt does not guarantee a good answer. Using Claude as an example, the author explains that AI more often produces plausible text than truly useful re

Anthropic Claude Won't Save You From Bad Requirements: Why AI Delivers Convincing But Weak Results
Источник: Habr AI. Коллаж: Hamidun News.

Большие промпты, роли и заклинания вроде think carefully не гарантируют хороший ответ от AI. На примере работы с Claude автор разбирает, почему модель часто ускоряет выпуск правдоподобного текста, но не доводит до полезного результата, если сама задача не определена.

Почему это не работает Главная претензия проста: AI редко спорит с плохой постановкой.

Если дизайнер, аналитик или разработчик обычно вернутся с уточняющими вопросами, то модель чаще достроит недостающий контекст сама и выдаст уверенный ответ. Поэтому пользователю кажется, что работа идет быстро, хотя по факту ускоряется не производство качественного результата, а производство текста, который выглядит убедительно. Отсюда и чувство усталости после длинных итераций: ты тратишь час на переписывание того, что должен был получить с первой или второй попытки.

«Промпт — не молитва».

Автор связывает это с переворотом в стоимости действий. Раньше дорого было делать, а думать и обсуждать — относительно дешево. Теперь AI за секунды создает пять вариантов анализа, письма или стратегии, зато обсуждение задачи командой из нескольких человек становится самой дорогой частью процесса. Из-за этого появляется иллюзия, что можно пропустить этап нормальной постановки и сразу перейти к генерации. Но длинный промпт не заменяет ясную цель, а магические формулы не лечат отсутствие структуры.

Четыре вопроса до чата

Вместо поиска идеальной формулировки автор предлагает вернуть базовую дисциплину бизнес-анализа и перед началом работы собрать карту задачи. Ее логика строится вокруг подхода As-Is, To-Be, Gap: что у нас есть сейчас, каким должен быть итог и что отделяет одно от другого. Такой каркас полезен не только для сложных исследований, но и для повседневых задач вроде анализа конкурентов, подготовки структуры статьи или разбора пользовательских интервью. Смысл в том, чтобы описывать не общую надежду на хороший ответ, а конкретный маршрут к нему.

  • Вход: какие данные, ссылки, документы, гипотезы и наблюдения уже есть у тебя на старте.
  • Этапы: какие действия модель должна выполнить по порядку, без расплывчатого «проанализируй».
  • Выход каждого этапа: что именно должно получиться после каждого шага — таблица, список, матрица, черновик.
  • Финальный результат: как выглядит готовая работа и по какому критерию ты примешь ее без ощущения «вроде нормально». На практике это меняет и сам формат взаимодействия с моделью. Вместо одного огромного промпта лучше строить конвейер из нескольких шагов с промежуточной приемкой: сначала сбор фактов, потом сравнение, затем поиск пустых сегментов и только после этого выводы. В примере с конкурентным анализом такой подход превращает абстрактную просьбу в последовательность небольших задач, где легче поймать ошибку раньше, чем в финальном тексте.

Как это собирают в Claude Для себя автор упаковал этот подход в отдельный Claude-скилл.

Сначала он проверяет, что вообще требуется: одноразовый ответ или промпт для повторного использования. Затем идет карта As-Is, To-Be, Gap, после чего система оценивает полноту запроса по нескольким обязательным элементам — цели, аудитории, формату, ограничениям и контексту. Если данных не хватает, модель не генерирует красивый текст сразу, а задает уточняющие вопросы.

Ключевой шаг здесь — Confirmation Gate: перед работой AI показывает, как понял задачу, и ждет явного подтверждения. Дальше итоговый промпт собирается в структурированный шаблон по схеме Context, Role, Instructions, Style, Parameters. Автор отдельно подчеркивает важность негативных ограничений, few-shot примеров и точечной итерации по конкретной ошибке, а не по ощущению «стало лучше».

Если результат получился слишком общим, исправлять нужно не настроение запроса, а правило: добавить метрики, запретить банальные фразы, потребовать четкий формат ответа. Такой режим делает промптинг ближе не к творческому гаданию, а к инженерной настройке процесса.

Что это значит

Главный вывод жесткий, но полезный: AI усиливает не только хорошие решения, но и плохую постановку. Для команд это сигнал перестать мерить эффективность количеством сгенерированных вариантов и начать требовать карту задачи, промежуточную приемку и критерии готовности. Чем дешевле становится генерация, тем дороже становится ясное мышление — и именно оно теперь дает наибольший выигрыш.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…