TNW→ оригинал

Clarifai apagou 3 milhões de fotos do OkCupid e os modelos de reconhecimento facial treinados com elas

A Clarifai confirmou a exclusão de cerca de 3 milhões de fotos de usuários do OkCupid e de modelos de reconhecimento facial treinados com esses dados. A empresa

Clarifai apagou 3 milhões de fotos do OkCupid e os modelos de reconhecimento facial treinados com elas
Источник: TNW. Коллаж: Hamidun News.
◐ Слушать статью

Clarifai сообщила, что удалила около 3 млн фотографий пользователей OkCupid, а также модели распознавания лиц, обученные на этих снимках. История тянется с 2014 года: тогда данные были переданы AI-компании без ведома самих пользователей и вразрез с политикой конфиденциальности сервиса знакомств.

Как возникла история

По условиям урегулирования с Федеральной торговой комиссией США, платформа знакомств OkCupid передала Clarifai большой массив пользовательских фото для задач компьютерного зрения. Ключевая проблема была не только в передаче данных как таковой, а в том, что люди не знали об этом и не давали отдельного согласия на использование своих изображений для обучения алгоритмов. Более того, такой обмен, как указано в материалах дела, противоречил собственной политике конфиденциальности OkCupid.

История особенно чувствительна из-за типа данных. Речь шла не просто о картинках для общего датасета, а о фотографиях лиц, которые потенциально можно использовать для обучения систем распознавания. Когда такие данные передаются без ясного уведомления и без прямого согласия, спор быстро выходит за рамки обычного конфликта о пользовательских условиях и становится вопросом биометрической приватности.

Именно поэтому подобные кейсы всё чаще рассматривают отдельно от обычных споров о пользовательских данных.

Что удалила

Clarifai Clarifai, американская компания из Делавэра, работающая в области компьютерного зрения и распознавания лиц, подтвердила, что стерла примерно 3 млн изображений, полученных от OkCupid. Вместе с исходными файлами были удалены и модели, обученные на этих фотографиях. Это важный момент: если убрать только датасет, но оставить производные модели в эксплуатации, проблема происхождения данных никуда не исчезает. В этой истории регуляторный смысл как раз в уничтожении обоих слоёв.

  • Около 3 млн фотографий пользователей Передача данных произошла ещё в 2014 году Пользователей заранее не уведомили об этом использовании * Удалены не только снимки, но и обученные на них модели Сама Clarifai при этом не была обвинена FTC в нарушениях. Это отделяет её роль от роли OkCupid и Match Group, которые фигурировали в урегулировании как стороны, ответственные за практики обращения с пользовательскими данными. Но публичное подтверждение удаления показывает, что компания всё же была вынуждена отреагировать на старую передачу данных и закрыть вопрос не только формально, но и технически. Это редкий случай, когда вопрос закрывают с явным удалением производных артефактов.

Почему это важно сейчас FTC объявила об урегулировании с

OkCupid и Match Group в конце марта 2026 года, и в нём не было финансовых штрафов. Такой исход выглядит мягким, если учитывать масштаб темы и чувствительность фотографий лиц. Регулятор сосредоточился не на денежном наказании, а на том, что сервис нарушил собственные обещания пользователям и допустил передачу данных для целей, о которых аудитория не была нормально проинформирована.

Отсутствие штрафа не делает кейс незначительным. Наоборот, он показывает, насколько долго могут жить последствия решений, принятых в ранние годы AI-рынка, когда компании охотнее собирали и переиспользовали данные, чем подробно объясняли это людям. Через двенадцать лет после передачи фотографий вопрос всё равно вернулся — уже в контексте регулятора, приватности и удаления моделей, а не только исходных файлов.

Для индустрии это почти учебный пример отложенного регуляторного риска. Для Match Group и других платформ это ещё и напоминание, что старая интеграция с внешним AI-подрядчиком может внезапно стать репутационной проблемой. Пользователь, который загружал фото в приложение для знакомств, вряд ли ожидал, что эти изображения помогут обучать систему распознавания лиц.

Именно этот разрыв между ожиданиями аудитории и реальным использованием данных сегодня становится главным источником риска. Особенно когда речь идёт о лицах, а не о нейтральных снимках объектов.

Что это значит

Для AI-компаний это сигнал жёстче проверять происхождение датасетов, особенно если речь идёт о лицах и другой чувствительной информации. Для цифровых платформ — напоминание, что старые передачи данных могут всплыть спустя годы и привести к требованиям удалить не только исходные файлы, но и результаты обучения. А для рынка в целом это ещё один шаг к правилу: спорные данные нельзя просто «архивировать», их приходится выводить из моделей полностью.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…