MIT Technology Review→ оригинал

Deepfake-порно как оружие травли: как AI создаёт новую форму насилия

Женщина обнаружила синтетическое порно со своим лицом, просто проверив видимость профессиональной фотографии через facial recognition. Проблема в масштабе: своб

Deepfake-порно как оружие травли: как AI создаёт новую форму насилия
Источник: MIT Technology Review. Коллаж: Hamidun News.
◐ Слушать статью

Когда Jennifer устраивалась на работу в NPO в 2023 году, она пропустила свою профессиональную фотографию через facial recognition — просто хотела проверить видимость в интернете. Система вернула результат, который её шокировал: deepfake-порновидеос с её лицом, созданные из видео, которые она снимала десять лет назад. История Jennifer — не исключение, а предупреждение о масштабе кризиса, который создала AI.

Синтетика за минуты Инструменты для создания deepfake-порнографии давно стали доступны.

Не нужно быть специалистом: достаточно выбрать открытый код, загрузить несколько кадров целевого лица и — готово. Процесс занимает минуты. Самые популярные инструменты распространяются через GitHub, Reddit и TikTok. Каждое обновление делает процесс проще, а качество выше. Основной драйвер — потребность: спрос на такой контент кажется бесконечным, особенно на нишевых платформах и тёмной паутине.

Травма и масштаб Эффект для жертвы немедленный и травматичный.

Синтетический порно распространяется как лесной пожар: друзья находят, коллеги видят, работодатель может отреагировать. В некоторых случаях контент используется для шантажа. Женщины сталкиваются с этим гораздо чаще — 90% жертв deepfake-порно это женщины.

  • Психологическая травма и посттравматический стресс у жертв * Потеря работы и разрыв отношений из-за "утечек"
  • Использование контента для шантажа и вымогательства Дамаж репутации, который невозможно полностью отменить Ощущение потери контроля над своим образом Платформы удаляют контент при жалобах, но это медленно. К тому времени видео уже скопировано тысячи раз, и полное удаление — иллюзия.

Попытки защиты Несколько подходов уже в движении.

Некоторые страны (Корея, некоторые штаты США, Великобритания) криминализировали deepfake-порно. Платформы и исследователи разрабатывают детекторы синтетики, но они отстают от качества моделей 2026 года. Идут кампании по информированию и помощи жертвам. Однако закон отстаёт от технологии, а детекторы deepfake остаются нежизнеспособными.

Что это значит

Deepfake-порнография — это не просто категория преступления, это новая форма цифровой травмирования. Технология, созданная для творчества, стала инструментом насилия в индустриальном масштабе. Для общества это означает, что приватность образа человека де-факто исчезла. Для платформ — срочная потребность в модерации. Для законодателей — необходимость регулирования.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Что вы думаете?
Загружаем комментарии…