X отстранит авторов от монетизации за немаркированный AI-контент о вооружённых конфликтах
Платформа X объявила о новых правилах для участников программы монетизации. Создатели контента, публикующие сгенерированные нейросетями изображения и видео воор

Платформа X, принадлежащая Илону Маску, сделала шаг, который может переопределить отношения между создателями контента, искусственным интеллектом и монетизацией в социальных сетях. Компания объявила, что авторы, публикующие сгенерированный нейросетями контент о вооружённых конфликтах без соответствующей маркировки, будут отстранены от программы распределения доходов на три месяца. Повторное нарушение приведёт к перманентному исключению из программы монетизации.
Чтобы понять значимость этого решения, нужно вспомнить контекст. Последние два года генеративный AI превратил создание реалистичных изображений и видео из удела профессионалов в занятие, доступное каждому за пару минут. Параллельно мир столкнулся с несколькими крупными вооружёнными конфликтами, информационное пространство вокруг которых оказалось буквально наводнено синтетическим контентом. Фейковые фотографии разрушенных городов, сгенерированные видео якобы военных преступлений, поддельные кадры с поля боя — всё это распространялось со скоростью, с которой ни одна платформа не могла справиться. И что особенно цинично, часть этого контента создавалась целенаправленно ради вовлечённости и, как следствие, заработка через программы монетизации.
Именно этот финансовый механизм X теперь пытается разорвать. До сих пор большинство платформ подходили к проблеме немаркированного AI-контента с позиции модерации: удаление постов, предупреждения, в крайних случаях — блокировка аккаунтов. Но X впервые бьёт по самому чувствительному месту создателей контента — по кошельку. Трёхмесячное отстранение от программы распределения доходов для автора с крупной аудиторией может означать потерю тысяч, а то и десятков тысяч долларов. Это принципиально иной уровень мотивации по сравнению с абстрактной угрозой удаления поста.
Технически реализация этой политики вызывает ряд вопросов. Как именно X планирует выявлять немаркированный AI-контент? Платформа располагает собственной нейросетью Grok, которая теоретически может использоваться для детекции синтетических изображений, однако современные генеративные модели создают контент, который всё сложнее отличить от реальных фотографий даже специализированным алгоритмам. Вероятно, компания будет полагаться на комбинацию автоматической детекции, пользовательских жалоб и ручной модерации. Остаётся открытым и вопрос о том, как будет определяться граница понятия «вооружённый конфликт» — попадают ли под политику исторические реконструкции, художественные интерпретации или только контент, который может быть воспринят как документальный.
Примечательно, что X сужает фокус именно до тематики вооружённых конфликтов, а не вводит универсальное требование маркировки всего AI-контента для участников программы монетизации. Это прагматичный выбор: именно военная тематика генерирует наибольший эмоциональный отклик и, соответственно, наибольший потенциальный ущерб от дезинформации. Однако такой избирательный подход неизбежно создаёт серую зону. Что насчёт AI-генераций стихийных бедствий, политических протестов или террористических атак? Логика, стоящая за новой политикой, легко распространяется и на эти категории, и вполне вероятно, что X со временем расширит список.
Для индустрии в целом этот прецедент может оказаться поворотным. Если модель «нарушил правила маркировки — потерял доступ к деньгам» покажет свою эффективность, другие платформы почти наверняка последуют примеру. YouTube, TikTok и Meta уже внедряют различные механизмы маркировки AI-контента, но ни одна из них пока не привязала это требование напрямую к монетизации с такой жёсткостью. Финансовые санкции — это язык, который создатели контента понимают безошибочно.
Есть и более широкий контекст. Регуляторы по всему миру — от Европейского союза с его AI Act до отдельных инициатив в США и Китае — движутся в сторону обязательной маркировки синтетического контента. X, вводя собственные правила, фактически опережает регуляторное давление и создаёт прецедент саморегулирования. Это может быть как искренней попыткой навести порядок, так и стратегическим ходом, позволяющим платформе сказать законодателям: мы уже решаем эту проблему сами.
Новая политика X — это признание простого факта: в эпоху генеративного AI старые методы модерации контента перестали работать. Удалять посты — всё равно что вычерпывать океан ложкой. Но если отключить финансовый стимул для создания дезинформации, поток может замедлиться сам собой. Вопрос лишь в том, окажется ли этот механизм достаточно точным, чтобы не задеть добросовестных авторов, и достаточно быстрым, чтобы угнаться за стремительно совершенствующимися генеративными моделями.