Habr AI→ оригинал

Habr explained why language models and classic RAG lose their understanding of relationships

RAG turned language models into a convenient interface for documents, but this approach starts to break down in enterprise scenarios with large data volumes. Ha

Habr explained why language models and classic RAG lose their understanding of relationships
Источник: Habr AI. Коллаж: Hamidun News.

На Хабре вышел разбор о том, почему эйфория вокруг больших языковых моделей и RAG начинает упираться в архитектурные ограничения. Главная мысль простая: модель может уверенно работать с документами, но это ещё не значит, что она действительно понимает знания и связи между фактами.

Почему RAG взлетел RAG быстро стал стандартным способом «подключить»

большую языковую модель к корпоративным данным. Логика понятна: сама модель хорошо формулирует ответы, пересказывает сложные тексты и удерживает стиль, но без внешней памяти она ограничена тем, чему была обучена заранее. Стоит добавить поиск по документам, и система начинает выглядеть как универсальный аналитик: отвечает по регламентам, пересказывает договоры, собирает отчёты и помогает находить нужные фрагменты без переобучения модели. На небольших массивах данных такой подход действительно производит сильное впечатление. Если база знаний состоит из десятков файлов и вопросы довольно прямые, классический RAG почти безошибочно подтягивает релевантные куски текста, передаёт их в контекст модели и получает внятный ответ. Именно поэтому схема быстро прижилась в поддержке, внутренних ассистентах, юридических сервисах, образовательных продуктах и аналитике: внедряется относительно просто, а практическая отдача появляется быстро.

Где начинается сбой

Проблема в том, что RAG по своей природе остаётся поисковой надстройкой, а не полноценной системой знаний. Он умеет находить похожие фрагменты текста, но не гарантирует понимание причинности, иерархий и скрытых связей между сущностями. Когда информация разбросана по разным документам, ответ часто нельзя взять из одного абзаца: его нужно собрать из нескольких фактов и промежуточных шагов рассуждения.

Для человека это естественно, а для классического RAG — уже пограничный сценарий. система возвращает самые похожие фрагменты, а не обязательно самые важные; при росте базы знаний критичный кусок текста легко не попадает в контекст; большое контекстное окно не решает проблему отбора и порядка данных; модель всё ещё может смешивать источники и слишком смело обобщать. Из-за этого модель может честно сказать, что данных недостаточно, хотя нужная цепочка фактов в документах уже есть.

В статье приводится простой пример: если в одном тексте Алиса связана с Бобом, а в другом Боб изучал картины Леонардо да Винчи, человек способен построить промежуточную связь. Поисковая система на основе сходства текста часто ищет прямое подтверждение и не делает этот шаг сама. Так проявляется разрыв между «поиском похожего» и настоящей работой со знанием.

Зачем нужны онтологии

Автор подводит к мысли, что следующий этап развития корпоративных AI-систем — это более явное представление знаний. Когда счёт идёт на сотни тысяч или миллионы документов, хранить смысл в виде набора чанков и векторных представлений становится неудобно. Нужна структура, где сущности, их свойства и связи заданы явно, а не восстанавливаются каждый раз на лету из кусочков текста.

Иначе система остаётся зависимой от удачи поиска и качества формулировки запроса. Именно здесь снова становятся актуальны онтологии — тема, которая долго казалась слишком академической для прикладного AI. В логике статьи это не попытка отказаться от языковых моделей или RAG, а способ сделать следующий слой над ними.

Модель по-прежнему нужна для общения на естественном языке, но сама база знаний должна описывать мир не только текстом, а связями. Такой подход сложнее в реализации, зато он лучше подходит для задач, где важны зависимости, причинность, пересечения между объектами и длинные цепочки вывода.

Что это значит Бум RAG никуда не исчезает, но рынок постепенно упирается в его потолок.

Если AI-система должна не просто искать абзацы, а объяснять связи между фактами и делать устойчивые выводы на больших массивах данных, одной векторной базы уже мало. Следующий виток будет у тех решений, которые объединят языковые модели с более строгими структурами знаний.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…