Meta переходит на собственный AI для модерации контента вместо сторонних вендоров
Meta разворачивает собственные AI-системы модерации контента на Facebook, Instagram и Threads — и одновременно сокращает зависимость от сторонних вендоров. Новы

Meta объявила о внедрении новых AI-систем для модерации и правоприменения на своих платформах — Facebook, Instagram и Threads. Параллельно компания сокращает зависимость от сторонних подрядчиков, которые прежде выполняли значительную часть работы по выявлению нарушений. По данным компании, собственные AI-инструменты превосходят предыдущие подходы по нескольким ключевым параметрам.
Новые системы точнее обнаруживают нарушения правил платформы, эффективнее блокируют мошеннические схемы, быстрее реагируют на события в реальном времени и реже срабатывают ложно — то есть с меньшей вероятностью блокируют легитимный контент по ошибке. Этот шаг вписывается в масштабную трансформацию, которую Meta проводит с начала 2025 года. В январе компания объявила о закрытии программы независимой фактчекерской проверки в США и переходе на модель Community Notes — пользовательских пояснений, по образцу X.
Тогда же Meta ослабила ряд политик в отношении политического контента и скорректировала работу алгоритмических рекомендаций. Переход от сторонних вендоров к собственным системам — логичное продолжение этого курса. Внешние подрядчики в сфере модерации всегда были уязвимым звеном: они работали медленнее, обходились дороже и не имели прямого доступа к внутренним сигналам платформы.
Именно эти сигналы позволяют системам Meta обнаруживать паттерны нарушений значительно раньше, чем это может сделать команда внешних рецензентов. Скорость реакции на реальные события — один из критических параметров для платформ с миллиардной аудиторией. Во время стихийных бедствий, выборов, военных конфликтов и других кризисов объём потенциально вредоносного контента резко возрастает.
AI-системы с постоянным доступом к потокам данных в реальном времени объективно выигрывают у команд внешних рецензентов именно в таких пиковых ситуациях. Отдельного внимания заслуживает заявленная цель снизить overenforcement — избыточные блокировки. Это давняя болевая точка для Meta: случаи удаления новостного контента, журналистских публикаций, медицинских материалов и высказываний меньшинств регулярно становились поводом для критики в адрес компании.
Новые системы, по словам представителей Meta, должны точнее разграничивать реальные нарушения и пограничные случаи. Вместе с тем полный переход на автоматизированную модерацию несёт собственные риски. AI-системы обучены на исторических данных и могут воспроизводить предвзятости, заложенные в обучающих выборках.
Без прозрачного механизма обжалования и независимого аудита пользователи и регуляторы не смогут оценить, насколько справедливо работают эти системы на практике. Европейские регуляторы уже требуют от крупных платформ раскрывать информацию о системах модерации и обеспечивать возможность обжалования решений — в рамках Закона о цифровых услугах (DSA). Американского аналога этих требований пока нет, но регуляторное давление по всему миру продолжает нарастать.
Для Meta переход на собственные AI-системы — одновременно технологический и репутационный выбор. Технологически компания получает более гибкий и масштабируемый инструмент, который можно адаптировать и дообучать под конкретные задачи. Репутационно — она демонстрирует, что берёт под прямой контроль ключевую инфраструктуру своих платформ, не отдавая её на аутсорс.
Как именно устроены новые системы, какие модели лежат в их основе и как организован человеческий надзор — Meta пока публично не раскрывает. Именно ответы на эти вопросы определят, станет ли обновлённый подход реальным шагом вперёд в вопросах безопасности контента или очередным витком непрозрачного управления крупнейшими социальными платформами мира.