Habr AI→ оригинал

Claude Code и Cursor: как инжиниринг контекста превращает память AI в рабочий инструмент

AI-ассистенты для разработки по-прежнему забывают всё после закрытия чата, поэтому команды тратят время на повторение стека, правил и старых решений. Решение —

Claude Code и Cursor: как инжиниринг контекста превращает память AI в рабочий инструмент
Источник: Habr AI. Коллаж: Hamidun News.

AI-ассистенты для разработки стали заметно сильнее, но у них сохраняется базовая проблема: почти каждая новая сессия начинается с потери накопленного контекста. Модель не помнит, какой стек использует команда, какие соглашения приняты в проекте, почему порт давно перенесли с 8501 на 8505 и какие компоненты уже оказались неудачным выбором. В результате разработчик снова и снова воспроизводит одни и те же вводные.

Статья про инжиниринг контекста предлагает смотреть на это не как на неизбежный дефект, а как на инженерную задачу: память можно вынести в отдельный слой и сделать её частью рабочего процесса. Ключевое различие здесь — между краткосрочной и долгосрочной памятью. Краткосрочная живёт внутри одного контекстного окна: текущий чат, открытые файлы, недавние действия.

Как только сессия закончилась, эта память исчезает. Именно поэтому без дополнительных настроек ассистент может сначала предложить дашборд на React, затем после правки перейти на Streamlit, потом только с третьей попытки учесть Altair и прочие требования. Каждая такая итерация выглядит как мелочь, но на дистанции превращается в постоянный «налог на повторение».

Чем больше проектов и участников в команде, тем дороже обходится отсутствие устойчивого контекста. Первый и самый практичный уровень решения — явные файлы правил внутри проекта. Для разных инструментов это могут быть CLAUDE.

md, AGENTS.md или каталоги с rules-файлами. В них имеет смысл фиксировать стек, соглашения по интерфейсу и стилю кода, команды запуска, тестирования и линтинга, а также важные исторические решения, которые трудно заново объяснять в каждой сессии.

Если команда предпочитает Material icons вместо эмодзи, широкую раскладку в Streamlit, Altair для графиков и конкретные механизмы кэширования, всё это лучше один раз описать рядом с кодом. Плюс такого подхода в том, что он живёт в системе контроля версий: новый разработчик клонирует репозиторий, а вместе с ним ассистент получает готовый набор правил игры. Следующий слой — глобальные правила, которые относятся не к конкретному проекту, а к стилю работы самого пользователя или команды.

Здесь уже не нужен список библиотек и портов; важнее задать формат ответов, требования к полноте кода, отношение к комментариям, подход к оптимизации и выбор между краткостью и читаемостью. Идея в том, чтобы разделить технический контекст и поведенческий. Технологические детали должны лежать в проекте, а устойчивые предпочтения — на глобальном уровне.

Отдельно в материале отмечается и более переносимый формат навыков, когда ассистенту задают не только правила поведения, но и процедуры выполнения типовых задач. Это приближает AI-инструменты к модели работы реального сотрудника: ему дают не только вводные, но и стандартные способы действовать. Более продвинутые уровни связаны с неявной памятью и внешней инфраструктурой.

Сюда относятся системы, которые сами собирают следы работы: фрагменты кода, активность в IDE, историю браузера, выводы из отладки и проектные паттерны. В статье среди примеров названы Pieces, автопамять Claude Code и облачные механизмы наподобие ChatGPT Memory. Важную роль здесь начинает играть Model Context Protocol, или MCP: он даёт единый способ подключать ассистента к внешним источникам данных, вместо того чтобы строить уникальные интеграции под каждый инструмент.

Для команд, которым нужен полноценный слой организационной памяти, есть ещё более тяжёлый путь — сервисы вроде Mem0, Zep и Supermemory или собственная RAG-инфраструктура на базе Pinecone и Weaviate. Но это уже не настройка «на вечер», а отдельная инженерная система со своими затратами на эмбеддинги, поиск, дедупликацию и разрешение противоречий в данных. Главный вывод довольно приземлённый: большинству команд не нужен сразу сложный memory stack.

Достаточно начать с одного файла правил в корне проекта, зафиксировать стек, команды и соглашения, а затем постепенно выносить повторяющиеся привычки в глобальные настройки. Если после продуктивной сессии просить ассистента кратко сформулировать, чему он научился, такой слой знаний будет расти без хаоса. На 11 апреля 2026 года автор статьи уже отмечал, что крупные игроки вроде Anthropic начали фактически встраивать память в свои инструменты, но сами модели при этом остаются stateless.

Это и есть главное изменение оптики: проблема не в том, что LLM «плохи», а в том, что контекст нужно проектировать так же сознательно, как код, пайплайны и документацию. Команды, которые поймут это раньше других, получат не магию, а устойчивое ускорение разработки.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…