Habr AI→ оригинал

FS-Researcher: почему вашему ИИ пора завести блокнот и перестать тупить

Проблема контекстного окна в LLM никуда не делась: даже огромные лимиты в 128k или 1M токенов не спасают от «забывчивости» в середине текста. Исследователи пред

FS-Researcher: почему вашему ИИ пора завести блокнот и перестать тупить
Источник: Habr AI. Коллаж: Hamidun News.

Представьте, что вы пытаетесь написать докторскую диссертацию, но при этом обладаете памятью золотой рыбки. Вы читаете пятидесятый источник, и в этот момент подробности первого просто испаряются. Именно так сейчас чувствуют себя даже самые продвинутые языковые модели вроде GPT-4o или Claude 3.5 Sonnet. У них есть контекстное окно, оно растёт, но проблема «Lost in the Middle» никуда не делась. Когда данных становится слишком много, модель начинает путаться, игнорировать важные детали из середины текста и выдавать поверхностную кашу вместо глубокого анализа. Это классический случай, когда количество не переходит в качество, и инженеры годами пытались решить это простым расширением оперативной памяти.

Группа исследователей решила подойти к вопросу иначе и представила FS-Researcher. Вместо того чтобы запихивать в несчастную модель сотни страниц текста из поисковой выдачи, они дали ей когнитивный протез в виде структурированного блокнота. Идея проста до гениальности: агент не просто гуглит и читает, он активно конспектирует. В процессе работы система выделяет ключевые сущности, факты и связи, записывая их во внешнее хранилище, которое постоянно обновляется. Это позволяет модели сохранять фокус на задаче, не перегружая основной контекст мусором, который неизбежно попадается при глубоком поиске в сети.

Раньше мы полагались на RAG — систему, которая подтягивает куски текста из базы данных. Но RAG часто работает как плохой библиотекарь: он приносит нужную страницу, но не понимает общей картины. FS-Researcher работает как вдумчивый аналитик. Он иерархически организует информацию, отсеивает дубликаты и, что самое важное, умеет связывать факты, найденные в разных источниках. Если в одном документе говорится о причине события, а в другом — о его последствиях, система не просто скопирует оба абзаца, а синтезирует их в единую логическую цепочку в своём блокноте. Это критически важно для написания длинных отчетов, где важна не только фактология, но и структура повествования.

Почему это важно именно сейчас? Мы упёрлись в потолок «грубой силы» контекстных окон. Компании вроде Google хвастаются миллионами токенов в Gemini, но на практике использование такого огромного окна стоит безумных денег и замедляет генерацию до черепашьих скоростей. FS-Researcher показывает, что архитектурные решения и правильный «workflow» агента гораздо эффективнее, чем бесконечное наращивание параметров. Для бизнеса это означает, что качественная автоматическая аналитика рынков или технологических трендов становится дешевле и точнее. Вам больше не нужно проверять каждый факт за нейросетью, потому что она сама ведет прозрачный лог своих рассуждений и находок.

В конечном итоге мы наблюдаем переход от ИИ-чатов к ИИ-сотрудникам. Чат просто отвечает на вопрос, а сотрудник — это тот, кто умеет работать с информацией долго, системно и не забывать, зачем он вообще открыл браузер десять минут назад. FS-Researcher — это один из первых уверенных шагов в сторону создания автономных исследователей, которые действительно экономят время человеку, а не добавляют работы по исправлению ошибок. Это меняет правила игры в академической среде и корпоративном секторе, где точность данных всегда стоит выше скорости их выдачи. Теперь вопрос лишь в том, как быстро подобные надстройки станут стандартом для всех популярных LLM-сервисов.

Главное: эпоха «раздутых» контекстных окон может закончиться, не успев начаться, уступив место умным системам фильтрации и внешним блокнотам. Смогут ли OpenAI и Anthropic внедрить такие механизмы нативно в свои модели, или нас ждёт бум сторонних агентских платформ?

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…