Китай запустил кампанию против дипфейков, мошенничества и злоупотреблений искусственным интеллектом
Китай запустил четырехмесячную кампанию против злоупотреблений искусственным интеллектом. В фокусе — дипфейки, мошенничество, дезинформация, отсутствие маркиров

Китай 30 апреля 2026 года запустил четырехмесячную кампанию против злоупотреблений искусственным интеллектом. Под нее попадают дипфейки, мошеннические схемы, дезинформация и сервисы, которые нарушают правила маркировки, регистрации и работы с персональными данными.
Кампания на четыре месяца
Инициатором выступило Управление киберпространства Китая вместе с Министерством общественной безопасности и другими ведомствами. Проверка рассчитана на четыре месяца и будет идти в два этапа. Формально это очередная итерация ежегодной серии Qinglang — «Чисто и ясно», но по масштабу она заметно шире прошлогодней.
Власти теперь бьют не по отдельным кейсам, а по всей цепочке: от обучения моделей и допуска их на рынок до распространения сгенерированного контента на платформах. В 2025 году похожая кампания длилась три месяца и дала представление о темпе будущих зачисток. К ее завершению регуляторы удалили более 960 тысяч единиц незаконного или вредного контента, отключили свыше 3,5 тысячи связанных с AI продуктов и наказали более 3,7 тысячи аккаунтов.
Нынешний запуск сопровождается еще более жесткой риторикой. Регулятор прямо говорит о борьбе с «нарушениями в AI-приложениях», а это оставляет властям широкий коридор для трактовки нарушений.
Что попадет под удар
Список целей показывает, что Китай рассматривает злоупотребления AI не как одну проблему, а как набор взаимосвязанных рисков. Речь идет и о технических нарушениях внутри самих сервисов, и о том, как эти сервисы потом используются для обмана аудитории, обхода правил платформ и манипуляции общественным вниманием. Под ударом оказываются не только разработчики моделей, но и площадки, аккаунты, магазины приложений и рекламные схемы вокруг них.
- AI-мошенничество: подделка голоса, лица и личности для обмана пользователей Дезинформация: фабрики аккаунтов, массовые вбросы и искусственные тренды Нарушение регистрации: запуск генеративных сервисов без обязательного согласования Отсутствие маркировки: публикация AI-контента без видимых и технических меток Нарушение прав: использование данных, образов и материалов без должного согласия Отдельный акцент сделан на подмене личности. Китайские власти уже раньше выделяли сценарии, где генеративные системы имитируют родственников, друзей, знаменитостей, топ-менеджеров или чиновников для онлайн-мошенничества. Теперь к этому добавлены вредный контент для несовершеннолетних, насильственные и вульгарные материалы, а также сервисы, которые обходят биометрическую аутентификацию. Еще одна чувствительная зона — использование цифровых образов умерших людей и любых реальных лиц без подтвержденного согласия на такое применение.
Новые правила и фон
Главное отличие кампании 2026 года от версии 2025-го — плотность правил вокруг отрасли. С 1 сентября 2025 года в Китае действуют обязательные стандарты маркировки AI-контента для текста, изображений, аудио и видео. 3 апреля 2026 года власти опубликовали проект правил для цифровых виртуальных людей, включая требования к согласию на использование внешности и запрет на обход биометрических систем.
А 10 апреля вышли временные меры для антропоморфных AI-сервисов, которые вступят в силу 15 июля 2026 года. На практике это значит, что регулятор может опираться сразу на несколько уровней норм: требования к регистрации публичных генеративных сервисов, правила deep synthesis, стандарты маркировки и блок норм по защите персональной информации. Если продукт не прошел обязательную регистрацию, скрывает искусственное происхождение контента или использует спорные обучающие данные, санкции могут быть быстрыми.
Для компаний это риск предписаний, остановки сервиса, удаления из магазинов приложений и, в серьезных случаях, передачи дела силовым органам. Дополнительный вес кампании придает международный фон. 23 апреля 2026 года Белый дом обвинил китайские компании в «промышленном масштабе» извлечения возможностей из американских передовых AI-моделей через jailbreaking и сеть прокси-аккаунтов.
Китайская внутренняя кампания не отвечает на эти претензии напрямую, но совпадение по времени делает ее политически заметной. По сути, Пекин и Вашингтон говорят об одних и тех же рисках AI — мошенничестве, манипуляции и нарушении прав, — только с разных точек входа.
Что это значит Китай показывает, что период мягких предупреждений для AI-сервисов заканчивается.
Для разработчиков и платформ это сигнал проверять регистрацию, маркировку, происхождение данных и согласие на использование чужого образа еще до запуска продукта. Для рынка в целом это подтверждение, что контроль за генеративным AI быстро превращается из политической темы в повседневное операционное требование.