The Verge→ оригинал

Anthropic добавила автоматический режим в Claude Code для безопасной работы без надзора

Anthropic запустила auto mode для Claude Code. Теперь ИИ-агент сам оценивает риск каждого действия и блокирует потенциально опасные операции — удаление файлов,

Anthropic добавила автоматический режим в Claude Code для безопасной работы без надзора
Источник: The Verge. Коллаж: Hamidun News.

Anthropic запустила автоматический режим для Claude Code — инструмента разработки на базе ИИ, который позволяет модели самостоятельно выполнять задачи от имени пользователя. Новый auto mode решает одну из главных проблем автономных агентов: как дать ИИ достаточно свободы для эффективной работы, не рискуя при этом потерей данных, утечкой информации или выполнением нежелательных команд. До появления auto mode пользователи Claude Code стояли перед неудобным выбором.

Можно было контролировать каждое действие агента вручную — надёжно, но медленно и утомительно. Либо выдать модели широкие разрешения и не вмешиваться — быстро, но рискованно. Claude Code уже умеет работать самостоятельно: удалять файлы, отправлять данные, выполнять системные команды.

Это делает его мощным инструментом, но и потенциально опасным — особенно если агент натолкнётся на скрытые инструкции в стороннем коде или вредоносных данных. Auto mode разработан как третий путь. Новая функция анализирует предстоящие действия агента, оценивает их потенциальный риск и блокирует опасные операции до того, как они будут выполнены.

При этом агент получает возможность предложить альтернативный, более безопасный способ достичь той же цели — вместо того чтобы просто отказывать в выполнении задачи. Anthropic позиционирует это как баланс между постоянным надзором и опасным уровнем автономии, который компания считает неприемлемым для широкой аудитории пользователей. По сути, auto mode — это встроенный уровень самоцензуры для агента.

Вместо того чтобы запрашивать разрешение у пользователя на каждом шагу или действовать бесконтрольно, Claude Code теперь сам взвешивает риски в режиме реального времени. Это напоминает подход, используемый в промышленных системах безопасности: не блокировать все нестандартные действия, а оценивать контекст и реагировать на реальные угрозы. Проблема агентских систем, которую призван решить auto mode, хорошо знакома разработчикам.

ИИ-агенты уязвимы к так называемым атакам с инъекцией промптов — когда вредоносные инструкции спрятаны в обрабатываемых данных, документах или коде сторонних библиотек. Агент добросовестно выполняет их, не подозревая об угрозе. Кроме того, широкие разрешения в автономном режиме могут привести к нежелательным последствиям даже без злого умысла: удалению нужных файлов, отправке конфиденциальных данных во внешние сервисы, выполнению деструктивных операций над базами данных.

Запуск auto mode — часть более широкой тенденции в индустрии. По мере того как ИИ-агенты становятся всё более автономными, вопросы управляемости и безопасности выходят на первый план для всех ключевых игроков рынка. Компании ищут способы предоставить пользователям мощные инструменты, не создавая при этом новых уязвимостей.

Anthropic явно делает ставку на то, что доверие к Claude Code будет расти вместе с его надёжностью и предсказуемостью поведения. Для разработчиков, которые используют Claude Code в реальных проектах, auto mode — это практическое улучшение рабочего процесса. Больше не нужно делать болезненный выбор между скоростью и безопасностью.

Агент берёт часть решений на себя, но именно те, которые можно делегировать — оставляя критически важные и необратимые действия под контролем пользователя. Это шаг в сторону ИИ-инструментов, которым можно доверять в реальной рабочей среде.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…