Галлюцинации по ГОСТу: почему ChatGPT нельзя доверять стройку
Кейс Алексея Кривоносова — идеальный пример того, почему «универсальный» ИИ опасен в узких нишах. Год успешного использования ChatGPT для маркетинга усыпил бдит

Представьте, что вы строите дом, опираясь на советы самого начитанного человека в мире, который, однако, страдает легкой формой амнезии и склонен к фантазиям. Именно в такой ситуации оказался Алексей Кривоносов, владелец строительного бизнеса, решивший делегировать ChatGPT рутину. Поначалу всё шло идеально. Нейросеть бодро писала сценарии для YouTube-канала компании, составляла контент-планы и причесывала технические отчеты. Это классическая ловушка: когда ИИ справляется с творческими задачами на «отлично», возникает иллюзия, что он так же хорош и в точных науках. Но дьявол, как обычно, скрывался в строительных нормах и правилах.
Проблема вскрылась, когда ChatGPT доверили работу с нормативной документацией — СП и ГОСТами. Для тех, кто далек от стройки: это не просто скучные книжки, а жесткий регламент, где каждая цифра оплачена чьей-то безопасностью. Нейросеть начала вести себя как нерадивый студент на экзамене: если она не знала точного ответа, она его выдумывала. Причем делала это с такой уверенностью, что подвох заметили не сразу. Алгоритм генерировал несуществующие пункты нормативов и выдавал цифры, которых никогда не было в официальных документах. В индустрии, где ошибка в расчете нагрузки на балку может привести к катастрофе, такое «творчество» недопустимо.
Почему это происходит? ChatGPT — это языковая модель, обученная предсказывать следующее слово, а не проверять факты по базе данных. Она работает с вероятностями, а не с истиной. Когда вы просите её найти конкретный пункт в ГОСТе, она не «лезет в библиотеку», а конструирует ответ, который звучит максимально правдоподобно. В этом и заключается коварство галлюцинаций: они выглядят как правда. Для маркетинга это не критично, но для инженерии это приговор. Алексей понял, что использовать «голую» LLM в профессиональной деятельности — это всё равно что играть в рулетку с заряженным револьвером.
Вместо того чтобы разочароваться в технологиях, команда Алексея пошла по пути создания специализированного инструмента. За полгода они разработали «Цифровой стандарт». Главное отличие этого решения от обычного чат-бота — использование технологии RAG (Retrieval-Augmented Generation). Суть проста: нейросети не разрешают «вспоминать» информацию из своей памяти. Вместо этого систему заставляют искать ответ в строго ограниченной, векторизированной базе данных реальных строительных нормативов. Если информации в базе нет, система так и говорит, а не пускается в фантазии. Это превращает ИИ из сказочника в высокоскоростного библиотекаря.
Кейс Кривоносова подсвечивает важный тектонический сдвиг в индустрии. Эпоха очарования универсальными моделями проходит. Бизнес начинает понимать, что для реальных задач нужны вертикальные решения. Недостаточно просто «подключить API OpenAI». Нужно вручную обрабатывать данные, чистить их от мусора и настраивать жесткие фильтры на выходе. Только так нейросеть из игрушки превращается в рабочий инструмент. Сегодня мы видим, как подобные системы появляются в юриспруденции, медицине и теперь в строительстве. Это закономерный этап взросления технологии.
Что это значит для рынка? Во-первых, спрос на «промпт-инженеров» падает, уступая место спросу на архитекторов данных, способных подружить LLM с корпоративными знаниями. Во-вторых, доверие к открытым моделям в критически важных отраслях будет только снижаться. Мы входим в эру «доверенного ИИ», где точность ценится выше, чем красноречие. Опыт Алексея показывает: чтобы ИИ приносил пользу, его нужно сначала лишить права на творчество там, где царят цифры и законы.
Главное: Общие нейросети вроде ChatGPT достигли потолка в профессиональных задачах. Будущее за RAG-системами и узкоспециализированными базами знаний. Готовы ли вы доверить расчет фундамента своего дома алгоритму, который не умеет отличать правду от вероятности?