Habr AI: eight common complaints about AI models — from hallucinations to agent failures
Habr AI examined eight recurring complaints about AI models, collected over the past 18–24 months in specialized Telegram chats. Leading complaints include conf

На Habr AI вышел необычный разбор пользовательского опыта с нейросетями: автор собрала за полтора-два года жалобы из профильных Telegram-чатов и свела их в восемь повторяющихся кластеров. Получилась не академическая работа, а живая карта того, где LLM ломают рабочие процессы, бюджет и нервы.
Как люди спорят с ИИ Главное наблюдение в этом тексте не техническое, а человеческое.
Пользователи ругают модели так, будто спорят не с программой, а с коллегой: нейросети «врут», «ленятся», «газлайтят», «не слушают» и «лезут не туда». Автор замечает, что на обычный софт так почти не реагируют. Такое очеловечивание меняет и ожидания: от модели ждут понимания контекста, памяти и здравого смысла, хотя внутри у неё всего лишь предсказание следующего токена, а не полноценная картина мира.
«Модели учились на нас, теперь мы учимся у них».
Из этого вырастает и вторая часть проблемы. Чем дружелюбнее и эмпатичнее звучит интерфейс, тем проще пользователю расслабиться, начать доверять модели лишнее и даже переносить на неё привычки из общения с людьми. Отсюда резкие эмоциональные качели: сегодня нейросеть спасает время и кажется почти идеальным помощником, завтра ломает задачу одной лишней инициативой. В статье это звучит как массовый пользовательский опыт, а не как редкие эксцессы.
Где модели сыпятся Самый крупный кластер жалоб связан с уверенными ошибками.
Модель может выдавать конкретный и правдоподобный ответ даже там, где ей не хватает данных, а в длинных диалогах ещё и путать проекты, документы и старые инструкции. Отдельно автор выделяет стоимость: даже у «безлимитных» тарифов есть скрытые пределы, а расход токенов плохо предсказуем. В результате нейросети одновременно экономят время и создают новый операционный риск, который сложно заранее посчитать.
Уверенные галлюцинации (~32%) — модель генерирует вероятный ответ, а не извлекает факт из базы, поэтому легко придумывает детали. Лишняя инициативность (~13%) — стремление быть полезной толкает систему делать больше, чем просили, включая опасные действия. * Проблемы с памятью (~11%) — длинные чаты теряют середину контекста, поэтому данные из документов и прошлых сообщений начинают путаться.
Агенты и вайбкодинг (~10–12%) — в больших задачах и кодовых базах ошибки наслаиваются, а красивый результат быстро превращается в хаос. Деньги и поведенческие эффекты (~7–8%) — лимиты меняются, токены сгорают неровно, а пользователи сильнее привязываются к моделям. Практический вывод у автора довольно приземлённый: меньше полагаться на «магическое понимание» и чаще строить вокруг модели внешние опоры.
Это значит короткие целевые чаты, документы в Markdown, которые перечитываются заново, retrieval вместо голой генерации, низкую температуру для фактологии и обязательную проверку человеком там, где ошибка может стоить денег, данных, времени команды или репутации. Иначе каждая новая сессия будет заново изобретать правила работы.
Почему агентность бесит
Отдельный блок посвящён агентам и вайбкодингу — и именно здесь тон статьи становится самым жёстким. Идея разделить работу между «архитектором», «кодером» и «тестировщиком» на практике часто даёт обратный эффект: каждый агент видит только свой кусок контекста, решения между ними расходятся, а ошибки предыдущего шага автоматически переносятся дальше. Для независимых задач такой подход ещё работает, но в разработке, где всё связано со всем, потери на координацию легко съедают обещанную скорость.
Отсюда и набор защитных правил: read-only режим для анализа, approval gates перед любым опасным действием, бэкапы, явные запреты на удаление и общая документация проекта для всех участников процесса. Та же логика касается и обычного общения с чат-ботами. Если пользователь начинает воспринимать модель как «своего» собеседника, он быстрее отдаёт ей заметки, почту, ключи и внутренние документы.
Проблема не в том, что ИИ действительно понимает человека, а в том, что он очень убедительно имитирует это понимание.
Что это значит
Текст на Habr AI полезен тем, что переводит разговор об ИИ из режима восторга в режим эксплуатации. Главная мысль простая: нейросети уже стали рабочим инструментом, но относиться к ним нужно не как к умному коллеге, а как к мощной, нестабильной и местами дорогой системе, которой постоянно нужны рамки, документация, контроль доступа и человеческая проверка. Именно это отличает рабочий стек от опасной игрушки.