Meta suspendió su colaboración con Mercor tras una filtración de datos sobre el entrenamiento de modelos de AI
Varios de los mayores laboratorios de AI investigan un incidente de seguridad en el proveedor de datos Mercor, y Meta ya suspendió la colaboración con la empres

Ведущий поставщик данных для AI-отрасли компания Mercor оказалась в центре серьёзного инцидента безопасности. Несколько крупнейших AI-лабораторий начали внутренние расследования, а Meta — одна из ключевых клиенток компании — объявила о приостановке сотрудничества. Под угрозой могли оказаться конфиденциальные данные о методах обучения AI-моделей: информация, которую технологические компании тщательно защищают как главный конкурентный актив.
Mercor — это платформа, которая связывает AI-компании с тысячами специалистов по разметке и аннотированию данных по всему миру. Именно размеченные данные — тщательно отобранные тексты, диалоги, изображения с метками качества — лежат в основе обучения современных языковых моделей. Без качественной разметки не появляются ни GPT-4, ни Claude, ни Llama.
Mercor обслуживала ведущих игроков рынка и за несколько лет превратилась в одного из самых заметных вендоров в этом сегменте. Ключевой вопрос инцидента — что именно могло быть раскрыто. Речь идёт не просто об утечке клиентской базы или персональных данных.
Инструкции для аннотаторов, категории данных, схемы предпочтений — RLHF-метки, по которым модели обучаются давать желаемые ответы, — всё это косвенно раскрывает методологические решения конкретной компании. Разработка таких процессов стоит сотни миллионов долларов и требует многолетней накопленной экспертизы. По ценности компрометация этих данных сопоставима с утечкой исходного кода.
Meta отреагировала быстро и превентивно — приостановила работу с Mercor до выяснения полной картины инцидента. Это стандартный протокол при подозрении на компрометацию цепочки поставок: продолжать передавать чувствительные данные поставщику с неизвестным статусом безопасности — неоправданный риск. Тем более что Meta инвестирует десятки миллиардов в собственные AI-системы, включая открытое семейство моделей Llama и ассистента Meta AI.
Другие AI-лаборатории, работавшие с Mercor, также ведут собственные проверки. Пока неустановлено: что именно было скомпрометировано, в каком объёме и является ли инцидент следствием внешней кибератаки или внутренней ошибки безопасности. Ни Mercor, ни вовлечённые компании пока не раскрывают технических деталей произошедшего.
Случай обнажает системную уязвимость AI-индустрии. Массовый аутсорсинг разметки данных означает, что в производственной цепочке каждой крупной AI-модели участвуют десятки, а то и сотни компаний-посредников. Каждая из них получает доступ к фрагментам конфиденциальной методологии своих клиентов.
При этом единых отраслевых стандартов безопасности для таких вендоров нет: ни обязательных аудитов, ни требований к шифрованию, ни протоколов уведомления при инцидентах. Для Mercor это репутационный кризис. Бизнес компании целиком основан на доверии AI-лабораторий, а это доверие сейчас под вопросом.
Даже если расследование покажет, что реальный ущерб оказался ограниченным, сам факт инцидента и публичная реакция Meta изменят переговорные позиции компании на рынке. Этот инцидент должен ускорить дискуссию об обязательных стандартах безопасности для поставщиков данных. Методология обучения — ключевое конкурентное оружие в AI-гонке.
Относиться к вендорам данных как к рядовым подрядчикам больше невозможно: уровень проверки и контроля должен соответствовать уровню доступа к конфиденциальной информации. Масштаб инцидента и полный список пострадавших компаний пока не раскрыты. Подробности расследования станут известны в ближайшее время.