Habr explained why language models and classic RAG lose their understanding of relationships
RAG turned language models into a convenient interface for documents, but this approach starts to break down in enterprise scenarios with large data volumes. Ha

На Хабре вышел разбор о том, почему эйфория вокруг больших языковых моделей и RAG начинает упираться в архитектурные ограничения. Главная мысль простая: модель может уверенно работать с документами, но это ещё не значит, что она действительно понимает знания и связи между фактами.
Почему RAG взлетел RAG быстро стал стандартным способом «подключить»
большую языковую модель к корпоративным данным. Логика понятна: сама модель хорошо формулирует ответы, пересказывает сложные тексты и удерживает стиль, но без внешней памяти она ограничена тем, чему была обучена заранее. Стоит добавить поиск по документам, и система начинает выглядеть как универсальный аналитик: отвечает по регламентам, пересказывает договоры, собирает отчёты и помогает находить нужные фрагменты без переобучения модели. На небольших массивах данных такой подход действительно производит сильное впечатление. Если база знаний состоит из десятков файлов и вопросы довольно прямые, классический RAG почти безошибочно подтягивает релевантные куски текста, передаёт их в контекст модели и получает внятный ответ. Именно поэтому схема быстро прижилась в поддержке, внутренних ассистентах, юридических сервисах, образовательных продуктах и аналитике: внедряется относительно просто, а практическая отдача появляется быстро.
Где начинается сбой
Проблема в том, что RAG по своей природе остаётся поисковой надстройкой, а не полноценной системой знаний. Он умеет находить похожие фрагменты текста, но не гарантирует понимание причинности, иерархий и скрытых связей между сущностями. Когда информация разбросана по разным документам, ответ часто нельзя взять из одного абзаца: его нужно собрать из нескольких фактов и промежуточных шагов рассуждения.
Для человека это естественно, а для классического RAG — уже пограничный сценарий. система возвращает самые похожие фрагменты, а не обязательно самые важные; при росте базы знаний критичный кусок текста легко не попадает в контекст; большое контекстное окно не решает проблему отбора и порядка данных; модель всё ещё может смешивать источники и слишком смело обобщать. Из-за этого модель может честно сказать, что данных недостаточно, хотя нужная цепочка фактов в документах уже есть.
В статье приводится простой пример: если в одном тексте Алиса связана с Бобом, а в другом Боб изучал картины Леонардо да Винчи, человек способен построить промежуточную связь. Поисковая система на основе сходства текста часто ищет прямое подтверждение и не делает этот шаг сама. Так проявляется разрыв между «поиском похожего» и настоящей работой со знанием.
Зачем нужны онтологии
Автор подводит к мысли, что следующий этап развития корпоративных AI-систем — это более явное представление знаний. Когда счёт идёт на сотни тысяч или миллионы документов, хранить смысл в виде набора чанков и векторных представлений становится неудобно. Нужна структура, где сущности, их свойства и связи заданы явно, а не восстанавливаются каждый раз на лету из кусочков текста.
Иначе система остаётся зависимой от удачи поиска и качества формулировки запроса. Именно здесь снова становятся актуальны онтологии — тема, которая долго казалась слишком академической для прикладного AI. В логике статьи это не попытка отказаться от языковых моделей или RAG, а способ сделать следующий слой над ними.
Модель по-прежнему нужна для общения на естественном языке, но сама база знаний должна описывать мир не только текстом, а связями. Такой подход сложнее в реализации, зато он лучше подходит для задач, где важны зависимости, причинность, пересечения между объектами и длинные цепочки вывода.
Что это значит Бум RAG никуда не исчезает, но рынок постепенно упирается в его потолок.
Если AI-система должна не просто искать абзацы, а объяснять связи между фактами и делать устойчивые выводы на больших массивах данных, одной векторной базы уже мало. Следующий виток будет у тех решений, которые объединят языковые модели с более строгими структурами знаний.