Deepfakes desnudos en escuelas: investigación de WIRED revela 90 instituciones y 600 víctimas
Periodistas de WIRED y analistas de Indicator investigaron casos de distribución de imágenes íntimas generadas por IA en escuelas — casi 90 instituciones educat

Расследование журнала WIRED совместно с аналитической платформой Indicator зафиксировало почти 90 школ в разных странах мира, где ученики столкнулись с распространением сгенерированных искусственным интеллектом интимных изображений. Совокупное число пострадавших превысило 600 человек — и, судя по динамике, проблема не идёт на убыль, а нарастает. Авторы изучили открытые источники, судебные документы, а также опросили школьных администраторов, родителей и самих пострадавших из десятков стран.
Их вывод однозначен: инструменты для создания так называемых нюдов по фотографии реального человека стали настолько доступными, что применять их может любой подросток со смартфоном. Большинство подобных сервисов работают в серой зоне, не требуют верификации возраста и не несут ответственности за генерируемый контент. Масштаб явления оказался неожиданным даже для исследователей.
Среди зафиксированных случаев — школы в США, Великобритании, Испании, Австралии и Канаде. В большинстве ситуаций инициаторами выступали одноклассники жертв, использовавшие фотографии из открытых аккаунтов в социальных сетях. Изображения распространялись через мессенджеры, закрытые чаты и анонимные платформы.
Часть случаев завершилась уголовными делами, однако правоприменение остаётся непоследовательным: законодательство во многих юрисдикциях просто не успело за технологиями. Пострадавшие описывают серьёзные психологические последствия: депрессию, тревожные расстройства, нежелание ходить в школу. Некоторые были вынуждены сменить учебное заведение.
Школьные администрации, по словам родителей, зачастую не знают, как реагировать — нет ни протоколов, ни ресурсов. Правоохранители нередко советуют «игнорировать» произошедшее или напоминают, что изображения технически не являются настоящими фотографиями, — что для жертв звучит как издевательство. Технологическая сторона усугубляет ситуацию.
Nudify-приложения активно рекламируются в поисковиках и соцсетях, несмотря на правила платформ, формально запрещающие подобный контент. Модели генерации изображений становятся точнее с каждым месяцем, барьер входа — ниже. Часть сервисов предлагает несколько бесплатных «обработок», монетизируя дальнейший доступ по подписке.
Удаление сгенерированного контента из интернета — процесс долгий, дорогой и зачастую безрезультатный. На законодательном уровне ситуация начинает меняться, но медленно. В ряде штатов США криминализировали создание и распространение дипфейк-интимных изображений без согласия человека.
В Великобритании соответствующие поправки вступили в силу в 2024 году. Евросоюз обсуждает дополнительные меры в рамках Акта об ИИ. Однако глобального консенсуса нет, а транснациональный характер интернета делает любые национальные законы лишь частичным решением.
Расследование — очередной сигнал: индустрия генеративного ИИ до сих пор не выработала ни технических стандартов, ни отраслевых норм, способных остановить использование технологий против уязвимых людей. Пока компании конкурируют за долю рынка, а регуляторы догоняют прогресс, реальные издержки несут школьники и их семьи.