Guardian→ оригинал

Anthropic a Accidentellement Révélé le Code Source de Claude Code, Soulevant de Nouvelles Questions de Sécurité

Anthropic a accidentellement exposé une partie du code source de Claude Code lorsqu'une mise à jour publique a inclus un fichier contenant un lien vers une arch

Anthropic a Accidentellement Révélé le Code Source de Claude Code, Soulevant de Nouvelles Questions de Sécurité
Источник: Guardian. Коллаж: Hamidun News.

Anthropic сама создала себе репутационную проблему: из-за ошибки в релизе Claude Code наружу ушла часть внутреннего исходного кода, и утечку успели растащить по сети за считаные часы. Для компании, которая строит образ одного из самых осторожных игроков на рынке ИИ, это не просто технический сбой, а болезненный удар по доверию к собственным процессам безопасности. Инцидент произошёл после обновления Claude Code — инструмента Anthropic для программирования с помощью ИИ.

В пакет релиза по ошибке попал внутренний файл, который указывал на архив с почти 2 тысячами файлов и примерно 500 тысячами строк кода. Этого оказалось достаточно, чтобы содержимое быстро перекочевало на GitHub и другие площадки. Ссылка на утёкший код разошлась по X с огромной скоростью: публикация с ней набрала более 29 млн просмотров уже к утру следующего дня.

Параллельно в GitHub появился переработанный репозиторий с этим кодом, который, по сообщениям в сети, стал одним из самых быстро распространявшихся зеркал подобного рода. Anthropic заявила, что причиной стала человеческая ошибка при упаковке релиза, а не внешний взлом. По словам компании, в опубликованных данных не было ни клиентской информации, ни секретных ключей, ни содержимого базовой модели Claude.

Речь шла именно о коде, связанном с внутренней архитектурой Claude Code. Формально это снижает масштаб ущерба, но не отменяет главный вопрос: почему внутренний артефакт вообще смог попасть в публичную поставку. В таких историях важен не только состав утечки, но и сам факт того, что контроль на последнем этапе не сработал.

Разработчики и исследователи быстро начали разбирать опубликованные файлы и нашли там намёки на функции, которые ещё не были представлены официально. Среди них — концепт помощника для кодинга в духе виртуального питомца, который реагирует на действия пользователя рядом с полем ввода, а также постоянно активный агент, способный работать в фоне. Кроме того, в коде заметили внутренние инструкции для Claude и детали, связанные с памятью и логикой работы инструмента.

Такие находки подогревают интерес к продукту, но одновременно дают конкурентам и атакующим лишний материал для анализа. Проблема усугубляется тем, что это уже не первый подобный эпизод вокруг Anthropic. Часть исходников Claude Code уже становилась предметом реверс-инжиниринга независимых разработчиков, а более ранняя версия инструмента также всплывала в публичном доступе в феврале 2025 года.

Ещё до нынешнего инцидента компания столкнулась с другой утечкой: во внешне доступных системах обнаружили тысячи внутренних файлов, включая черновики, где упоминались будущие модели под названиями Mythos и Capybara. На этом фоне нынешняя история выглядит не как разовый промах, а как повторяющийся сбой в операционной дисциплине. И это особенно чувствительно именно сейчас.

Claude Code стал для Anthropic одним из ключевых продуктов роста: интерес к платным подпискам компании заметно увеличился, а сам Claude в последние месяцы усилил позиции среди массовых ИИ-сервисов и разработческих инструментов. Чем больше доля Anthropic в корпоративной разработке, тем выше цена любой ошибки в цепочке поставки. Когда компания продаёт не просто чат-бота, а систему, которой доверяют написание кода и выполнение агентных задач, требования к релизным процессам и внутренней изоляции автоматически становятся жёстче.

Отдельный риск связан с тем, что утечки такого рода помогают не только любопытным пользователям, но и конкурентам. Даже если в архиве нет прямых секретов модели, структура кода, промпты, инженерные подходы, заготовки для новых функций и комментарии разработчиков позволяют лучше понять, как именно устроен продукт и где находятся его слабые места. Для компании, которая делает ставку на безопасность и ответственное развитие ИИ, это особенно неприятный сигнал: рынок видит не только амбиции, но и то, насколько аккуратно они реализуются на практике.

Что это значит: история с Claude Code показала, что главный риск для ИИ-компаний сегодня часто находится не в самих моделях, а в операционных мелочах вокруг них — сборке релизов, доступах, внутренних артефактах и контроле публикации. Anthropic удалось быстро заявить, что данные пользователей не пострадали, но этого мало, чтобы закрыть вопрос. После второй утечки за короткий срок от компании будут ждать не объяснений про человеческий фактор, а доказательств, что её процессы действительно стали надёжнее.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…