Habr AI→ оригинал

LangChain представила Deep Agents — слой над LangGraph для долгих и сложных задач

LangChain выпустила Deep Agents — высокоуровневую обвязку над LangGraph для многошаговых AI-агентов. Вместо ручной сборки графов разработчик получает create_dee

LangChain представила Deep Agents — слой над LangGraph для долгих и сложных задач
Источник: Habr AI. Коллаж: Hamidun News.
◐ Слушать статью

LangChain выпустила Deep Agents — отдельную Python-библиотеку для создания «глубоких» агентных систем поверх LangChain и LangGraph. Идея в том, чтобы убрать из типичного агентного проекта рутину вроде ручной сборки графов, управления контекстом и делегирования подзадач.

Не ещё один граф

Во многих командах путь сейчас похожий: сначала используют обычные цепочки LangChain, потом упираются в ограничения простых пайплайнов и переходят на LangGraph. Там уже приходится собирать состояние, условные переходы, циклы, стриминг и логику выполнения ещё до того, как агент начал решать бизнес-задачу. Deep Agents пытается поднять уровень абстракции и забрать этот инфраструктурный слой на себя.

В итоге команда тратит меньше времени на plumbing и больше — на саму логику агента. LangChain описывает Deep Agents как agent harness — оболочку, которая использует LangGraph под капотом, но даёт более жёсткие настройки по умолчанию. Разработчику предлагают не конструктор из примитивов, а готовую рамку для долгих и многошаговых сценариев.

Запуск выглядит предельно просто: одна функция create_deep_agent(), список инструментов, системный промпт — и дальше библиотека сама ведёт цикл работы агента. Именно поэтому релиз подают как ускоритель разработки, а не как ещё один слой абстракции ради абстракции.

LangGraph даёт двигатель и трансмиссию.

Deep Agents даёт автомобиль.

Что внутри коробки

Главная ставка Deep Agents — не в новой модели и не в новом протоколе, а в наборе встроенных механизмов, которые обычно каждой команде приходится проектировать заново. Именно это и делает релиз заметным: LangChain пытается стандартизировать те паттерны, которые уже стали повторяться в продакшн-агентах. Речь не о теории, а о типичных узких местах, которые почти всегда всплывают в длинных агентных сессиях. * write_todos для встроенного планирования: агент разбивает задачу на шаги, отслеживает статусы и обновляет план по ходу работы.

  • Виртуальная файловая система с ls, read_file, write_file, edit_file, glob и grep, чтобы выносить длинные результаты из контекстного окна.
  • Инструмент task для запуска субагентов, которые решают отдельные подзадачи в изолированном контексте.
  • Автосуммаризация, когда история диалога разрастается и приближается к лимиту окна модели.
  • Долгосрочная память между сессиями и потоками через backend LangGraph Store. В документации есть и практический пример: исследовательский агент сначала строит план, затем собирает данные из поиска, складывает тяжёлые результаты в файловую систему, при необходимости делегирует часть работы субагенту и в конце собирает отчёт. Для разработчика это выглядит как одна высокоуровневая обвязка, хотя внутри по-прежнему работает LangGraph. Отдельно LangChain продвигает и CLI-версию Deep Agents — терминального кодового агента на том же SDK.

Где это полезно

Deep Agents явно рассчитан не на чат-ботов с одним вызовом инструмента, а на более длинные сценарии: исследование темы, кодовые ассистенты, автономные воркфлоу, задачи с большим объёмом промежуточных данных и памятью между сессиями. Если агенту нужно планировать, читать и писать файлы, сохранять артефакты, делить работу на подзадачи и не терять нить после десятков шагов, такой слой действительно может сэкономить много времени. Но это не замена любому стеку.

Для простых агентов LangChain сама рекомендует оставаться на create_agent, а если нужен очень точный контроль над топологией графа — работать напрямую с LangGraph. Deep Agents — инструмент для тех случаев, где важнее скорость сборки и готовые решения, чем полный ручной контроль над каждым состоянием и переходом. По сути, LangChain предлагает более opinionated-подход к агентам: меньше свободы, но и меньше инженерной рутины.

Что это значит

Релиз Deep Agents показывает, что рынок агентных систем сдвигается от базовых демо к стандартизации инфраструктуры. Следующий этап конкуренции — уже не просто «агент умеет вызывать инструменты», а «агент может долго работать, помнить, планировать и не разваливаться от объёма контекста».

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…