Deepfakes sexuels dans les écoles : l'enquête de WIRED révèle 90 établissements et 600 victimes
Les journalistes de WIRED et les analystes d'Indicator ont enquêté sur des cas de distribution d'images intimes générées par IA dans des écoles — près de 90 éta

Расследование журнала WIRED совместно с аналитической платформой Indicator зафиксировало почти 90 школ в разных странах мира, где ученики столкнулись с распространением сгенерированных искусственным интеллектом интимных изображений. Совокупное число пострадавших превысило 600 человек — и, судя по динамике, проблема не идёт на убыль, а нарастает. Авторы изучили открытые источники, судебные документы, а также опросили школьных администраторов, родителей и самих пострадавших из десятков стран.
Их вывод однозначен: инструменты для создания так называемых нюдов по фотографии реального человека стали настолько доступными, что применять их может любой подросток со смартфоном. Большинство подобных сервисов работают в серой зоне, не требуют верификации возраста и не несут ответственности за генерируемый контент. Масштаб явления оказался неожиданным даже для исследователей.
Среди зафиксированных случаев — школы в США, Великобритании, Испании, Австралии и Канаде. В большинстве ситуаций инициаторами выступали одноклассники жертв, использовавшие фотографии из открытых аккаунтов в социальных сетях. Изображения распространялись через мессенджеры, закрытые чаты и анонимные платформы.
Часть случаев завершилась уголовными делами, однако правоприменение остаётся непоследовательным: законодательство во многих юрисдикциях просто не успело за технологиями. Пострадавшие описывают серьёзные психологические последствия: депрессию, тревожные расстройства, нежелание ходить в школу. Некоторые были вынуждены сменить учебное заведение.
Школьные администрации, по словам родителей, зачастую не знают, как реагировать — нет ни протоколов, ни ресурсов. Правоохранители нередко советуют «игнорировать» произошедшее или напоминают, что изображения технически не являются настоящими фотографиями, — что для жертв звучит как издевательство. Технологическая сторона усугубляет ситуацию.
Nudify-приложения активно рекламируются в поисковиках и соцсетях, несмотря на правила платформ, формально запрещающие подобный контент. Модели генерации изображений становятся точнее с каждым месяцем, барьер входа — ниже. Часть сервисов предлагает несколько бесплатных «обработок», монетизируя дальнейший доступ по подписке.
Удаление сгенерированного контента из интернета — процесс долгий, дорогой и зачастую безрезультатный. На законодательном уровне ситуация начинает меняться, но медленно. В ряде штатов США криминализировали создание и распространение дипфейк-интимных изображений без согласия человека.
В Великобритании соответствующие поправки вступили в силу в 2024 году. Евросоюз обсуждает дополнительные меры в рамках Акта об ИИ. Однако глобального консенсуса нет, а транснациональный характер интернета делает любые национальные законы лишь частичным решением.
Расследование — очередной сигнал: индустрия генеративного ИИ до сих пор не выработала ни технических стандартов, ни отраслевых норм, способных остановить использование технологий против уязвимых людей. Пока компании конкурируют за долю рынка, а регуляторы догоняют прогресс, реальные издержки несут школьники и их семьи.