Habr AI→ оригинал

Hive, C2PA e Intel: como funcionam os serviços de verificação de deepfakes e onde eles falham

A verificação de deepfakes ainda não se resume a um único botão. Em um teste com 100 arquivos, Hive, RealityGuard, o padrão Content Credentials e o Intel FakeCa

◐ Слушать статью

Сервисы для распознавания дипфейков быстро превращаются в отдельный рынок, но ни один из них пока не дает железной гарантии. Тест четырех популярных решений показал: лучше всего работают не универсальные обещания, а инструменты с понятной специализацией и подтвержденным происхождением файла.

Как устроили тест Для проверки собрали набор из 100 файлов в трех категориях.

В него вошли обычные фотографии и видео с камер, современные синтетические ролики и изображения, а также гибридный контент — например, кадры после нейросетевой ретуши, апскейлинга и других доработок. Отдельно проверяли и аудиоподделки, чтобы понять, как системы ведут себя не только на картинке, но и на голосе. Такой набор позволил сравнить сервисы не на стерильных демо, а на типичных кейсах, с которыми сталкиваются редакции и обычные пользователи.

Важная деталь методики — файлы подавали в том виде, в каком они реально ходят по интернету. Это значит: без части EXIF-данных, после сжатия соцсетями и мессенджерами, иногда уже в повторно сохраненном виде. На практике именно здесь многие сервисы и начинают ошибаться.

В лабораторных условиях детектор может выглядеть убедительно, но после Telegram, WhatsApp или Instagram его уверенность заметно падает. Именно поэтому результат в тесте ближе к реальному использованию, чем к маркетинговым презентациям.

Кто показал результат Сравнение быстро показало, что универсального победителя нет.

Каждый инструмент хорошо работает в одном сценарии и заметно проседает в другом, поэтому результат зависит не от громкости бренда, а от того, что именно ты проверяешь: фото, разговорное видео, аудио или файл с сохраненной цепочкой происхождения. Именно из-за этого сравнивать их по одному общему проценту точности просто бессмысленно. Для одного класса задач лидер легко превращается в аутсайдера в соседнем.

Hive уверенно распознает многие сгенерированные изображения, но может принять артефакты сильного сжатия в старом видео за следы ИИ. RealityGuard от Sensity лучше других справляется с видео, где важны лицо, мимика и синхронизация губ с голосом, но резко теряет точность на пейзажах и изображениях без человека. * Content Credentials на базе стандарта C2PA не столько ищет подделку, сколько подтверждает происхождение файла, если камера и софт сохранили цепочку подписей.

* Intel FakeCatcher показывает лучший результат на качественных видео крупным планом, анализируя физиологические сигналы лица, но почти бесполезен на статичных картинках и роликах низкого разрешения. На этом фоне особенно выделяется стандарт C2PA. Если файл изначально снят на совместимое устройство и не потерял подписи при редактировании или пересылке, это самый сильный аргумент в пользу подлинности.

Проблема в том, что в реальной жизни таких файлов пока меньшинство: старые камеры, мессенджеры и простая повторная загрузка легко разрывают эту цепочку. Для новостных редакций и фотографов это уже превращается из опции в рабочий стандарт, а не в эксперимент.

Где детекторы ломаются Первая причина — гонка между генераторами и детекторами.

Как только системы проверки учатся искать один набор артефактов, новые модели убирают именно эти слабые места. Раньше подделки выдавали странные пальцы, неестественные глаза или рваная синхронизация губ. Сейчас эти маркеры встречаются все реже, и детекторам приходится опираться на более тонкие признаки, которые легко разрушаются после сжатия.

По сути, проверяющие системы почти всегда догоняют, а не опережают генераторы. Вторая проблема — сама среда распространения контента. Фото и видео почти никогда не доходят до пользователя в исходном виде.

Соцсети режут качество, мессенджеры пережимают файлы, а платформы удаляют часть метаданных. Из-за этого даже сильные инструменты начинают путать реальный контент с синтетическим или, наоборот, пропускают качественный дипфейк. Особенно плохо работают проверки там, где нет крупного лица, чистого звука или исходного файла вообще.

Третья проблема — человек по другую сторону экрана. Даже если сервис показывает вероятность подделки, многие воспринимают результат как окончательный приговор. Но оценка в 60 или 70 процентов — это не судебная экспертиза, а лишь сигнал, что контент нужно проверить глубже.

Не меньше вреда приносит и обратная ошибка, когда пользователь полностью игнорирует предупреждение, потому что интерфейс непонятен или сервис уже однажды ошибся до этого.

«В 2026 году самый надежный детектор — это все еще совокупность

технологий, собственного расследования и здравого смысла».

Что это значит

Для редакций, фактчекеров и обычных пользователей вывод простой: одной кнопки для разоблачения дипфейков пока нет. Рабочая схема сегодня — комбинировать автоматическую проверку, смотреть на метаданные и происхождение файла, учитывать качество исходника и по возможности включать Content Credentials на собственных устройствах. Чем важнее решение, тем опаснее полагаться на один вердикт сервиса. Особенно если речь идет о деньгах, репутации или публикации спорного материала.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…