TNW→ оригинал

Hugging Face и ClawHub компрометированы: вредонос в сотнях моделей ИИ

В Hugging Face обнаружены сотни вредоносных моделей ИИ. Они скрыты среди более чем миллиона легальных моделей, используемых ИИ-компаниями. Вредонос выполняет пр

Hugging Face и ClawHub компрометированы: вредонос в сотнях моделей ИИ
Источник: TNW. Коллаж: Hamidun News.
◐ Слушать статью

Хранилища машинных моделей Hugging Face и ClawHub систематически компрометированы. В них найдены сотни вредоносных моделей, которые выполняют произвольный код на машинах разработчиков.

Что произошло

Hugging Face — центральный репозиторий, где хранятся более миллиона ML-моделей, которые используют практически все ИИ-компании планеты. Обнаружено, что среди них находятся сотни вредоносных моделей, маскирующихся под легальные. Это первая крупная supply chain атака на ИИ-инфраструктуру. Вредоносные модели всплыли как результат неправильно настроенной безопасности. Hugging Face позволяет любому пользователю загружать модели, и этим воспользовались злоумышленники. ClawHub, хранилище агентских навыков, тоже скомпрометирован через загруженные пользователями модули.

Масштаб атаки *

Сотни вредоносных моделей в Hugging Face Скрыты среди более чем миллиона легальных моделей Затрагивают API и приватные проекты разработчиков ClawHub и другие хранилища также компрометированы Первая систематическая атака на ML-инфраструктуру ## Как работает вредонос Вредонос попадает в модель на этапе её загрузки. Когда разработчик скачивает модель через Hugging Face SDK или импортирует её в код, происходит инициализация. Именно на этом этапе выполняется вредоносный код. Что он может делать: выполнять произвольный код на машине, красть данные из рабочей среды разработчика, устанавливать бэкдоры для удалённого доступа, компрометировать production-системы при деплое заражённой модели, распространяться на зависимые проекты через цепь зависимостей.

Почему это опасно

Разработчики ИИ относятся к Hugging Face как к эквиваленту npm или PyPI — выкачивают модели как зависимости, не проверяя код. Никто не ревьюит содержимое ML-моделей вручную, потому что это невозможно в масштабе. Вредоносная модель может дремать месяцами в боевой системе, ждущая специфического условия, или работать скрытно, собирая данные исподволь. Это классическая supply chain атака, но в ИИ-контексте она ещё опаснее, потому что заражена не библиотека, а готовый к запуску код с полными правами.

Что это значит Инфраструктура ИИ-разработки стала серьёзной мишенью.

Индустрии нужны срочные меры: механизмы проверки кода моделей, изоляция выполнения при загрузке, более строгие требования к загрузке в центральные репозитории. Это станет необходимым требованием для работы с открытыми моделями.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Что вы думаете?
Загружаем комментарии…