Habr AI→ оригинал

Habr AI : la continuité du contexte pourrait devenir une nouvelle couche d’efficacité pour les systèmes d’AI

Habr AI a publié une analyse solide sur les raisons pour lesquelles un long contexte, à lui seul, ne rend pas l’AI plus fiable. Les auteurs introduisent l’idée

◐ Слушать статью

На Habr AI вышел текст о том, что следующий прирост качества ИИ может прийти не от ещё более длинного окна контекста, а от умения сохранять рабочую преемственность между шагами. Авторы называют это непрерывностью контекста и предлагают смотреть на неё как на операционный режим, а не на объём памяти.

Почему промпта мало

Главная мысль статьи простая: сильный промпт может дать сильный ответ, но не гарантирует, что через шаг, через час или в новой сессии модель поведёт себя так же. На короткой дистанции это почти незаметно. Но как только задача растягивается на 10–20 шагов, критичным становится не качество одного ответа, а способность системы удерживать цель, ограничения, принятые решения и правила работы с допущениями.

Именно здесь длинный чат и большой context window перестают быть синонимами надёжности. Авторы предлагают разделять четыре вещи: окно контекста, память фактов, системный промпт и непрерывность контекста. Первые три помогают модели помнить текст, правила и справочную информацию.

Но они не решают проблему воспроизводимости поведения на длинной дистанции. Если система не умеет проверять выполнимость задачи до генерации, не фиксирует границы входных данных и не умеет вернуться в рабочий режим после сбоя, пользователь каждый раз заново собирает рамку работы вручную.

«Непрерывность нужна не для памяти фактов, а для памяти решений».

Два показательных сбоя Первый тест в статье посвящён слову «вовлечённость».

Модели дали формализованную задачу, а затем попросили выдать десять строгих синонимов. Формально она закрыла требование по счётчику, но по смыслу ответ оказался слабым: появились повторы, словоформы и смещения значения. Ключевой момент не в самой ошибке, а в том, что модель не включила preflight-проверку заранее.

Она должна была до генерации сказать, что десять полностью эквивалентных синонимов без потери смысла здесь вряд ли достижимы, и предложить более честную декомпозицию ответа. Второй тест показывает более опасный тип сбоя. Модели дали неполный образец должностной инструкции, где присутствовал только раздел с обязанностями.

Вместо того чтобы зафиксировать границы входа, система начала достраивать недостающие части по канону жанра и некоторое время вела себя так, словно эти разделы действительно были в исходном файле. Такой сбой выглядит убедительно, а потому особенно рискован: пользователь получает не откровенную галлюцинацию, а правдоподобную реконструкцию, в которой предположение маскируется под факт.

Мини-стандарт работы В качестве практического ответа авторы предлагают

не «мегапромпт», а минимальный стандарт длительной работы. Его смысл в том, чтобы система переносила между шагами не весь диалог, а рабочий минимум: цель, инварианты, принятые решения, политику допущений, ожидаемую структуру результата и правила восстановления после сбоев. В статье это описано и как протокол взаимодействия, и как часть платформенной логики.

  • Scope check — до генерации система проверяет, достаточно ли данных, и явно фиксирует, что именно есть во входе, а чего нет.
  • Assumption marking — если чего-то не хватает, модель заранее помечает, что именно она собирается достроить по умолчанию.
  • Stop-the-line / recovery — при дрейфе или конфликте требований система не продолжает работу автоматически, а останавливается, диагностирует проблему и предлагает путь возврата к последнему валидному состоянию.
  • Реестр решений — между шагами сохраняются уже принятые договорённости, чтобы следующий ответ не переопределял их молча. Отдельно авторы описывают свой модуль PSM, который закрепляет удачные режимы работы как переносимые паттерны. Идея в том, чтобы сохранять не весь след общения, а только то, что действительно делает серию задач воспроизводимой: инварианты, решения, правила допущений и схему вывода. За счёт этого процесс можно продолжать после пауз, переключения между артефактами и даже после инструментальных сбоев, не начиная всё с нуля.

Что это значит

Материал Habr AI хорошо попадает в реальную проблему корпоративного использования ИИ: бизнесу нужен не просто умный собеседник, а система, которая работает стабильно от шага к шагу. Если идея непрерывности контекста приживётся в продуктах и агентных пайплайнах, следующим конкурентным преимуществом станет не максимальная длина чата, а умение сохранять решения, честно маркировать допущения и восстанавливаться без полной переинициализации процесса.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…