The Verge→ оригинал

ИИ научился раскрывать анонимные аккаунты в соцсетях

Исследователи из ETH Zurich, Anthropic и программы MATS опубликовали работу, в которой описали автоматизированную систему ИИ-агентов, способную деанонимизироват

ИИ научился раскрывать анонимные аккаунты в соцсетях
Источник: The Verge. Коллаж: Hamidun News.

У вас есть анонимный аккаунт на Reddit, где вы откровенно обсуждаете начальство? Или тайный профиль в соцсетях, где вы позволяете себе быть настоящим? Новое исследование показывает, что искусственный интеллект способен связать эти аккаунты с вашей реальной личностью — и сделать это быстрее и эффективнее, чем любой частный детектив.

Группа исследователей из швейцарского ETH Zurich, компании Anthropic и программы Machine Learning Alignment and Theory Scholars (MATS) разработала автоматизированную систему ИИ-агентов, которая может деанонимизировать пользователей интернета. Система использует неназванные языковые модели, способные самостоятельно искать информацию в сети, анализировать найденные данные и выстраивать цепочки связей между разрозненными аккаунтами. По сути, это цифровой следователь, который никогда не устаёт и не теряет нить рассуждений.

Чтобы понять масштаб проблемы, стоит вспомнить, как работала деанонимизация раньше. Традиционно для раскрытия анонимного аккаунта требовались либо значительные ресурсы — как у спецслужб или крупных корпораций, — либо грубая ошибка самого пользователя: случайно опубликованная фотография с геолокацией, использование одного и того же никнейма на разных платформах, характерные речевые обороты. Процесс был трудоёмким, дорогим и не масштабировался. Один аналитик мог вести одно расследование неделями. Искусственный интеллект меняет эту экономику радикально. То, что раньше требовало команды специалистов и месяцев работы, система ИИ-агентов потенциально способна выполнить за часы или даже минуты, причём одновременно для тысяч аккаунтов.

Технически подход исследователей опирается на способность современных языковых моделей к так называемому мультишаговому рассуждению. ИИ-агент не просто сравнивает два текста на стилистическое сходство — он выстраивает сложные логические цепочки. Упомянули на анонимном аккаунте, что живёте рядом с определённым парком? Написали на основном профиле о любимой кофейне в том же районе? Используете специфический профессиональный термин и там, и там? Каждая такая деталь по отдельности ничего не доказывает, но в совокупности они формируют уникальный цифровой отпечаток. Современные модели превосходно справляются именно с такой задачей — синтезом разрозненных фрагментов информации в целостную картину.

Важно отметить, что исследование пока не прошло рецензирование, а авторы не раскрывают, какие именно модели использовались в экспериментах. Это означает, что к конкретным результатам стоит относиться с осторожностью. Тем не менее сам факт публикации работы с участием Anthropic — компании, которая позиционирует себя как лидера в области безопасности ИИ — говорит о многом. Скорее всего, исследование проведено в рамках оценки рисков: прежде чем выпускать всё более мощные модели, необходимо понимать, какие угрозы они несут. И деанонимизация — одна из самых серьёзных.

Последствия этого открытия выходят далеко за рамки неловких ситуаций, когда начальник узнаёт о вашем анонимном отзыве на Glassdoor. Анонимность в интернете — это не просто удобство, это фундаментальный инструмент свободы слова. Информаторы, разоблачающие коррупцию. Жители авторитарных государств, критикующие власть. Жертвы домашнего насилия, ищущие помощь. Активисты в странах, где инакомыслие преследуется. Для всех этих людей анонимность — не прихоть, а вопрос безопасности, а иногда и жизни. Если ИИ-инструменты деанонимизации станут широко доступны, баланс сил в информационном пространстве сместится в сторону тех, кто и так обладает властью — корпораций, государств, преследователей.

Для российской аудитории эта тема имеет особую остроту. В условиях, когда анонимное высказывание в сети для многих остаётся единственным безопасным способом выразить мнение, появление доступных инструментов деанонимизации на базе ИИ создаёт совершенно новый ландшафт рисков. При этом защититься от подобных систем значительно сложнее, чем от традиционных методов: недостаточно просто использовать VPN и разные никнеймы, если сам стиль письма, набор интересов и паттерны поведения становятся уникальным идентификатором.

Авторы исследования справедливо отмечают, что хоронить анонимность пока рано. Между лабораторной демонстрацией и массовым применением лежит значительная дистанция. Однако направление движения очевидно: с каждым поколением языковых моделей задача деанонимизации будет становиться проще и дешевле. Это означает, что индустрии, регуляторам и самим пользователям пора всерьёз задуматься о новых механизмах защиты приватности — таких, которые учитывают возможности ИИ, а не только традиционные угрозы. Время, когда анонимность обеспечивалась простым созданием нового аккаунта с вымышленным именем, уходит в прошлое.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…