LangChain presentó Deep Agents — una capa sobre LangGraph para tareas largas y complejas
LangChain lanzó Deep Agents, una capa de alto nivel sobre LangGraph para agentes de AI de varios pasos. En lugar de construir grafos manualmente, el desarrollad

LangChain выпустила Deep Agents — отдельную Python-библиотеку для создания «глубоких» агентных систем поверх LangChain и LangGraph. Идея в том, чтобы убрать из типичного агентного проекта рутину вроде ручной сборки графов, управления контекстом и делегирования подзадач.
Не ещё один граф
Во многих командах путь сейчас похожий: сначала используют обычные цепочки LangChain, потом упираются в ограничения простых пайплайнов и переходят на LangGraph. Там уже приходится собирать состояние, условные переходы, циклы, стриминг и логику выполнения ещё до того, как агент начал решать бизнес-задачу. Deep Agents пытается поднять уровень абстракции и забрать этот инфраструктурный слой на себя.
В итоге команда тратит меньше времени на plumbing и больше — на саму логику агента. LangChain описывает Deep Agents как agent harness — оболочку, которая использует LangGraph под капотом, но даёт более жёсткие настройки по умолчанию. Разработчику предлагают не конструктор из примитивов, а готовую рамку для долгих и многошаговых сценариев.
Запуск выглядит предельно просто: одна функция create_deep_agent(), список инструментов, системный промпт — и дальше библиотека сама ведёт цикл работы агента. Именно поэтому релиз подают как ускоритель разработки, а не как ещё один слой абстракции ради абстракции.
LangGraph даёт двигатель и трансмиссию.
Deep Agents даёт автомобиль.
Что внутри коробки
Главная ставка Deep Agents — не в новой модели и не в новом протоколе, а в наборе встроенных механизмов, которые обычно каждой команде приходится проектировать заново. Именно это и делает релиз заметным: LangChain пытается стандартизировать те паттерны, которые уже стали повторяться в продакшн-агентах. Речь не о теории, а о типичных узких местах, которые почти всегда всплывают в длинных агентных сессиях. * write_todos для встроенного планирования: агент разбивает задачу на шаги, отслеживает статусы и обновляет план по ходу работы.
- Виртуальная файловая система с ls, read_file, write_file, edit_file, glob и grep, чтобы выносить длинные результаты из контекстного окна.
- Инструмент task для запуска субагентов, которые решают отдельные подзадачи в изолированном контексте.
- Автосуммаризация, когда история диалога разрастается и приближается к лимиту окна модели.
- Долгосрочная память между сессиями и потоками через backend LangGraph Store. В документации есть и практический пример: исследовательский агент сначала строит план, затем собирает данные из поиска, складывает тяжёлые результаты в файловую систему, при необходимости делегирует часть работы субагенту и в конце собирает отчёт. Для разработчика это выглядит как одна высокоуровневая обвязка, хотя внутри по-прежнему работает LangGraph. Отдельно LangChain продвигает и CLI-версию Deep Agents — терминального кодового агента на том же SDK.
Где это полезно
Deep Agents явно рассчитан не на чат-ботов с одним вызовом инструмента, а на более длинные сценарии: исследование темы, кодовые ассистенты, автономные воркфлоу, задачи с большим объёмом промежуточных данных и памятью между сессиями. Если агенту нужно планировать, читать и писать файлы, сохранять артефакты, делить работу на подзадачи и не терять нить после десятков шагов, такой слой действительно может сэкономить много времени. Но это не замена любому стеку.
Для простых агентов LangChain сама рекомендует оставаться на create_agent, а если нужен очень точный контроль над топологией графа — работать напрямую с LangGraph. Deep Agents — инструмент для тех случаев, где важнее скорость сборки и готовые решения, чем полный ручной контроль над каждым состоянием и переходом. По сути, LangChain предлагает более opinionated-подход к агентам: меньше свободы, но и меньше инженерной рутины.
Что это значит
Релиз Deep Agents показывает, что рынок агентных систем сдвигается от базовых демо к стандартизации инфраструктуры. Следующий этап конкуренции — уже не просто «агент умеет вызывать инструменты», а «агент может долго работать, помнить, планировать и не разваливаться от объёма контекста».