Investigadores: Los deepfakes de Trump y mujeres militares falsas se convirtieron en herramientas de propaganda
Los deepfakes políticos se están convirtiendo en una industria distinta: los creadores no solo falsifican celebridades, sino que inventan personajes de IA compl

Политические дипфейки быстро перестают быть просто мемами или пародиями. Исследователи предупреждают: синтетические персонажи, созданные с помощью генеративного ИИ, уже зарабатывают деньги, собирают аудитории и работают как удобная форма пропаганды — даже если зритель догадывается, что перед ним подделка.
Масштаб нового витка
Лаборатория Governance and Responsible AI Lab (Grail) фиксирует резкий рост такого контента. С начала 2025 года исследователи насчитали более 1 000 англоязычных постов в соцсетях с фейковыми изображениями и видео о политиках, общественно значимых событиях и спорных темах. Для сравнения, за предыдущие восемь лет вместе взятые база Grail собрала 1 344 подобных случая.
Такой скачок связывают не только с популярностью темы, но и с тем, что генеративные модели сделали создание правдоподобной сцены почти мгновенной задачей. Главное изменение не в том, что стало больше фейков с известными лицами. Теперь создатели все чаще придумывают полностью несуществующих персонажей и помещают их в политически заряженные контексты: казармы, полицейские отделы, зоны конфликта, митинги.
Это уже не просто подмена лица политика в ролике, а конструирование целой «реальности», где зритель получает не факт, а образ, который удобно совпадает с его убеждениями. В этом и заключается новая сила дипфейков: они не обязаны быть точными, им достаточно казаться правдоподобными.
Деньги и убеждения
Один из самых заметных примеров — AI-персонаж Джессика Фостер, блондинка в американской военной форме, появившаяся в Instagram в декабре 2025 года. Публикации с ней — на кровати в казарме, в кабинете с ногами на столе, рядом с Дональдом Трампом на летном поле в туфлях на каблуках — собрали огромную аудиторию. У аккаунта было более миллиона подписчиков, а трафик затем вели на OnlyFans, где пользователям продавали якобы её фото.
То есть синтетический образ одновременно работал и как политический визуальный символ, и как коммерческий продукт. Похожие кейсы уже появляются в нескольких форматах: фейковые «иранские солдаты» в роликах, рассчитанных на вирусное распространение во время войны AI-полицейская в TikTok с аудиторией более 26 000 подписчиков и сообщениями в поддержку жёсткой депортационной политики как минимум 18 дипфейков, опубликованных Дональдом Трампом и Белым домом с 2024 года дипфейки против Трампа, которыми начал пользоваться и губернатор Калифорнии Гэвин Ньюсом Исследователи отдельно подчеркивают неприятный эффект: такой контент может убеждать даже тогда, когда зритель видит в нём странности. Неверные шевроны, нелепые сцены, нестыкующиеся детали и слишком глянцевый визуальный стиль не обязательно мешают воздействию.
Если картинка поддерживает уже существующее мнение человека, она срабатывает как эмоциональное подтверждение. Дипфейк в такой логике нужен не для того, чтобы доказать факт, а для того, чтобы укрепить ощущение: «это похоже на правду, значит, так и есть».
Метки и оборона
На защиту пока рассчитывают в первую очередь через стандарты происхождения контента и автоматические метки. Coalition for Content Provenance and Authenticity продвигает подход, при котором в изображение или видео встраиваются криптографически подписанные метаданные: где создан файл, редактировался ли он AI-инструментами и что с ним происходило дальше. Идея простая: если платформа умеет читать такую информацию, она может предупредить пользователя ещё до того, как синтетика разойдётся по лентам.
Пока это работает слабо. В эксперименте журналиста The Indicator 200 AI-изображений и видео загрузили на крупные платформы, чтобы проверить, как те ставят метки. Даже лучшие результаты у LinkedIn и Pinterest покрыли только около 67% материалов.
Instagram отметил лишь 15 из 105 фейковых изображений. Одновременно исследователи предупреждают о следующем этапе — AI swarms, когда сети синтетических аккаунтов смогут автономно координироваться, внедряться в сообщества и имитировать общественное согласие без привычных «фабрик троллей» из живых людей.
Что это значит Политический риск теперь не сводится к вопросу «поверят ли люди подделке буквально».
Намного важнее, закрепляет ли она нужную эмоцию, образ врага или чувство правоты. Пока платформы медленно маркируют AI-контент, а монетизация таких персонажей работает быстро, дипфейки будут всё чаще использоваться не только для развлечения, но и для убеждения, радикализации и продажи.