Habr AI→ оригинал

StudyAI: How Generative AI Undermines Trust in Texts, Voices, and Videos Online

Generative AI no longer just helps create deepfakes — it erodes the very notion of digital proof. StudyAI explores two key effects of this new environment: the

StudyAI: How Generative AI Undermines Trust in Texts, Voices, and Videos Online
Источник: Habr AI. Коллаж: Hamidun News.

Генеративный ИИ быстро меняет не только способ производства контента, но и базовое ощущение того, чему в сети вообще можно верить. Если раньше главной угрозой считались грубые фейки и монтаж, то теперь проблема глубже: текст, голос и видео все чаще выглядят правдоподобно по умолчанию, а значит сам интернет теряет статус среды, где доказательство можно увидеть собственными глазами. Автор статьи предлагает смотреть на это не как на локальную проблему дипфейков, а как на продолжение старой медийной логики, которую еще Маршалл Маклюэн описывал через влияние среды на восприятие сообщения.

Интернет сделал распространение информации мгновенным, эмоциональным и плохо управляемым. На этом фоне ослабли традиционные авторитеты, а любой контент легко вырвать из контекста и встроить в новую историю. Даже до взлета генеративных моделей сеть уже была благоприятной средой для дезинформации, а с появлением доступного ИИ масштабы и скорость этой проблемы выросли на порядок.

Хороший пример — реконтекстуализация: когда реальное видео, фото или цитату переносят в чужую ситуацию и заставляют работать на новую, ложную интерпретацию. Формально материал может быть подлинным, но смысл у него уже поддельный. Один из ключевых эффектов новой эпохи — так называемый «дивиденд лжеца».

Чем реалистичнее становятся синтетические медиа, тем проще человеку отвергнуть даже подлинный компромат, запись или свидетельство, сославшись на то, что это нейросетная подделка. Вторая сторона той же проблемы — «апатия к правде». Когда пользователь знает, что подделать можно почти все, у него снижается мотивация разбираться в деталях.

Вместо проверки фактов включается защитный режим: ничего не принимать всерьез, пролистывать дальше и не тратить силы на различение истины и имитации. Это опасно не только для новостей, но и для права, репутации, политической коммуникации и общественного доверия в целом. Парадокс в том, что чем совершеннее становятся инструменты генерации, тем дешевле обходится не только производство лжи, но и отказ признавать правду.

Особенно уязвимым выглядит текст. Видео и аудио еще можно пытаться проверять через биометрические признаки живого человека: микроскопические изменения цвета кожи, связанные с дыханием и кровотоком, или колебания голосового аппарата, которые трудно корректно смоделировать. Такие методы не идеальны, но они хотя бы дают направление для технической защиты.

С текстом ситуация сложнее: если модель пишет связно, уверенно и в нужном стиле, человеку почти не на что опереться, кроме внешнего контекста, истории публикации и репутации автора. Поэтому именно текстовая среда может первой войти в фазу, где различить человека и машину без дополнительных метаданных станет практически невозможно. Отсюда и растущий риск для образования, экспертизы и публичной дискуссии: синтетические статьи, отзывы, научные работы и комментарии будут все чаще восприниматься как обычный фон.

При этом материал не сводится к пессимизму. Технический прогресс создает и угрозу, и инструменты ответа на нее. Логика здесь простая: бороться с ИИ-фейками, вероятно, придется тоже с помощью ИИ и связанных систем верификации.

Речь идет не о волшебной кнопке, а о постоянной гонке между атакой и защитой. Одни будут улучшать генерацию, другие — детектирование, подтверждение происхождения контента, биометрические маркеры, криптографическую подпись и инфраструктуру доверия. Абсолютной защиты не будет, но и полного коллапса реальности статья не предсказывает: общество уже не раз адаптировалось к новым медиасредам, меняя привычки потребления информации и критерии достоверности.

Вероятно, пользователям придется заново учиться цифровой гигиене, а платформам — встраивать проверку происхождения контента не как опцию, а как базовую функцию. Главный вывод в том, что проблема ИИ — не только в том, что он умеет создавать фейки, а в том, что он размывает саму идею цифрового доказательства. В ближайшие годы ценность будут иметь не столько сами слова, изображения или записи, сколько подтвержденный контекст их появления: кто опубликовал, где это было создано, можно ли проверить цепочку происхождения и есть ли независимые признаки подлинности.

Иначе интернет рискует превратиться в среду тотального сомнения, где правда технически существует, но социально перестает работать.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…