Meta приостановила работу с Mercor после утечки данных об обучении AI-моделей
Несколько крупнейших AI-лабораторий расследуют инцидент безопасности у вендора данных Mercor, а Meta уже приостановила сотрудничество с компанией. Под угрозой —

Ведущий поставщик данных для AI-отрасли компания Mercor оказалась в центре серьёзного инцидента безопасности. Несколько крупнейших AI-лабораторий начали внутренние расследования, а Meta — одна из ключевых клиенток компании — объявила о приостановке сотрудничества. Под угрозой могли оказаться конфиденциальные данные о методах обучения AI-моделей: информация, которую технологические компании тщательно защищают как главный конкурентный актив.
Mercor — это платформа, которая связывает AI-компании с тысячами специалистов по разметке и аннотированию данных по всему миру. Именно размеченные данные — тщательно отобранные тексты, диалоги, изображения с метками качества — лежат в основе обучения современных языковых моделей. Без качественной разметки не появляются ни GPT-4, ни Claude, ни Llama.
Mercor обслуживала ведущих игроков рынка и за несколько лет превратилась в одного из самых заметных вендоров в этом сегменте. Ключевой вопрос инцидента — что именно могло быть раскрыто. Речь идёт не просто об утечке клиентской базы или персональных данных.
Инструкции для аннотаторов, категории данных, схемы предпочтений — RLHF-метки, по которым модели обучаются давать желаемые ответы, — всё это косвенно раскрывает методологические решения конкретной компании. Разработка таких процессов стоит сотни миллионов долларов и требует многолетней накопленной экспертизы. По ценности компрометация этих данных сопоставима с утечкой исходного кода.
Meta отреагировала быстро и превентивно — приостановила работу с Mercor до выяснения полной картины инцидента. Это стандартный протокол при подозрении на компрометацию цепочки поставок: продолжать передавать чувствительные данные поставщику с неизвестным статусом безопасности — неоправданный риск. Тем более что Meta инвестирует десятки миллиардов в собственные AI-системы, включая открытое семейство моделей Llama и ассистента Meta AI.
Другие AI-лаборатории, работавшие с Mercor, также ведут собственные проверки. Пока неустановлено: что именно было скомпрометировано, в каком объёме и является ли инцидент следствием внешней кибератаки или внутренней ошибки безопасности. Ни Mercor, ни вовлечённые компании пока не раскрывают технических деталей произошедшего.
Случай обнажает системную уязвимость AI-индустрии. Массовый аутсорсинг разметки данных означает, что в производственной цепочке каждой крупной AI-модели участвуют десятки, а то и сотни компаний-посредников. Каждая из них получает доступ к фрагментам конфиденциальной методологии своих клиентов.
При этом единых отраслевых стандартов безопасности для таких вендоров нет: ни обязательных аудитов, ни требований к шифрованию, ни протоколов уведомления при инцидентах. Для Mercor это репутационный кризис. Бизнес компании целиком основан на доверии AI-лабораторий, а это доверие сейчас под вопросом.
Даже если расследование покажет, что реальный ущерб оказался ограниченным, сам факт инцидента и публичная реакция Meta изменят переговорные позиции компании на рынке. Этот инцидент должен ускорить дискуссию об обязательных стандартах безопасности для поставщиков данных. Методология обучения — ключевое конкурентное оружие в AI-гонке.
Относиться к вендорам данных как к рядовым подрядчикам больше невозможно: уровень проверки и контроля должен соответствовать уровню доступа к конфиденциальной информации. Масштаб инцидента и полный список пострадавших компаний пока не раскрыты. Подробности расследования станут известны в ближайшее время.