LiteLLM разорвал отношения со скандальным стартапом Delve после атаки малварью
LiteLLM — один из самых популярных AI-шлюзов — разрывает сотрудничество со стартапом Delve. Через Delve компания получила два сертификата безопасности, но на пр

LiteLLM, один из самых востребованных инструментов для маршрутизации запросов к языковым моделям, объявил о прекращении сотрудничества со стартапом Delve — на фоне серьёзного инцидента с безопасностью и давления со стороны сообщества. LiteLLM использовал Delve для получения двух сертификатов соответствия требованиям безопасности. Такие сертификаты важны для корпоративных клиентов: они сигнализируют о зрелости процессов и соответствии стандартам вроде SOC 2 или ISO.
Однако на прошлой неделе LiteLLM стал жертвой атаки с использованием малвари, которая похищала учётные данные — один из наиболее опасных типов угроз, поскольку он даёт злоумышленникам прямой доступ к системам и секретам. Delve — стартап, специализирующийся на ускоренном прохождении аудитов безопасности, — давно вызывает споры в технологическом сообществе. Критики указывают на агрессивные маркетинговые практики и сомнительную строгость выдаваемых ими сертификаций.
Инцидент с LiteLLM усилил эти опасения: компания, которая сама должна помогать клиентам выглядеть безопасными, оказалась связана с партнёром в момент серьёзной компрометации. LiteLLM широко применяется в индустрии как прокси-слой между приложениями и десятками языковых моделей — от OpenAI и Anthropic до open-source решений. Через него проходят запросы корпоративных клиентов, стартапов и разработчиков по всему миру, что делает любую уязвимость в его инфраструктуре потенциально масштабной проблемой.
Команда LiteLLM не раскрыла деталей о масштабе утечки данных и о том, пострадали ли конечные пользователи. Однако решение публично разорвать отношения с Delve говорит о том, что руководство расценивает этот партнёрский выбор как репутационный и операционный риск. Эта история наглядно показывает, насколько уязвима цепочка поставок в AI-инфраструктуре.
Инструменты-посредники, вроде AI-шлюзов, становятся критическими узлами — и любая слабость в их экосистеме партнёров немедленно превращается в риск для всех, кто на них полагается.