Найти в Дзене
Обезьянки c AGI

ИИ вычислит вас за $4: как Claude и ChatGPT ломают анонимность в интернете

Недавнее исследование ETH Zurich и Anthropic поставило под вопрос саму концепцию анонимности в интернете. Оказалось, что большие языковые модели могут автоматически связывать псевдо аккаунты с реальными личностями — и это стоит всего от 1 до 4 долларов за профиль. Исследователи создали полностью автоматизированный конвейер на базе LLM, который работает в три этапа: 1. Извлечение характеристик личности. ИИ-агент анализирует анонимные посты пользователя и самостоятельно определяет профессию, местоположение, хобби и политические взгляды — всё, что можно «прочитать между строк». 2. Поиск кандидатов через семантические эмбеддинги. Система сопоставляет извлечённые данные с огромными базами открытых профилей, например LinkedIn. 3. Финальная верификация совпадений. Модель анализирует наиболее подходящих кандидатов, подтверждает совпадения и снижает количество ложных срабатываний. Учёные протестировали метод на пользователях Hacker News и Reddit. Из пула в 89 тысяч профилей LinkedIn система усп
Оглавление

Недавнее исследование ETH Zurich и Anthropic поставило под вопрос саму концепцию анонимности в интернете. Оказалось, что большие языковые модели могут автоматически связывать псевдо аккаунты с реальными личностями — и это стоит всего от 1 до 4 долларов за профиль.

Как работает деанонимизация через ИИ

Исследователи создали полностью автоматизированный конвейер на базе LLM, который работает в три этапа:

1. Извлечение характеристик личности. ИИ-агент анализирует анонимные посты пользователя и самостоятельно определяет профессию, местоположение, хобби и политические взгляды — всё, что можно «прочитать между строк».

2. Поиск кандидатов через семантические эмбеддинги. Система сопоставляет извлечённые данные с огромными базами открытых профилей, например LinkedIn.

3. Финальная верификация совпадений. Модель анализирует наиболее подходящих кандидатов, подтверждает совпадения и снижает количество ложных срабатываний.

Шокирующие результаты эксперимента

Учёные протестировали метод на пользователях Hacker News и Reddit. Из пула в 89 тысяч профилей LinkedIn система успешно деанонимизировала две трети пользователей Hacker News — 226 случаев из 338. При этом точность составила 90%, то есть когда система выдавала результат, он был верным в 9 случаях из 10.

Особенно показателен случай с датасетом обезличенных интервью от самой Anthropic. Компания специально отредактировала 125 интервью с учёными для защиты приватности, удалив имена и ссылки на соцсети. Но даже там ИИ-агент смог идентифицировать как минимум 9 человек из 125.

Скорость и цена — вот в чём угроза

Ключевое отличие от традиционных методов расследования — это скорость и доступность. То, что заняло бы у человека-аналитика часы кропотливой работы, языковая модель выполняет за считанные минуты.

Весь эксперимент обошёлся исследователям менее чем в 2000 долларов. Стоимость проверки одного профиля — от 1 до 4 долларов. Это делает массовую деанонимизацию доступной не только спецслужбам, но практически любому человеку с доступом к Claude или ChatGPT.

Почему защититься почти невозможно

Чем больше постов, тем проще вычислить. Каждое сообщение добавляет новые детали: случайное упоминание о городе, профессиональный жаргон, любимые хобби. ИИ улавливает те же подсказки, что и опытный аналитик, но делает это автоматически.

Не раскрывать данные невозможно. Как отмечают авторы исследования, «данные, которые мы используем — это те самые данные, которые делают онлайн-сообщества ценными». Зачем сидеть в Reddit, если не обсуждать любимые фильмы, игры и профессиональные темы?

Сложно заблокировать на уровне LLM. Техники, которые использовали исследователи, включают обычные задачи по обобщению контента и поиску — не вредоносные операции, которые можно было бы легко заблокировать.

Кто в зоне риска

Особенно уязвимыми оказываются несколько категорий пользователей:

— Анонимные критики на Glassdoor и других платформах для отзывов о работодателях

— Альтернативные аккаунты в Reddit (alts), которые люди используют для откровенных обсуждений

— Финста-аккаунты (fake Instagram), где пользователи ведут себя более открыто

— Информаторы и whistleblowers, чья безопасность напрямую зависит от анонимности

Джошуа Суонсон, один из авторов исследования, подчёркивает: «В целом, любой онлайн-форум, где люди пишут достаточно текста, потенциально уязвим. А платформы, где посты публично доступны для поиска, — ещё более открыты».

Что это значит для будущего

Исследование показывает: эпоха псевдонимной анонимности в интернете подходит к концу. Классические методы защиты — использование ников, отказ от прямых идентификаторов — больше не работают против современных ИИ-систем.

C развитием больших языковых моделей порог входа для деанонимизации будет только снижаться. То, что сегодня требует некоторых технических навыков, завтра станет доступно через простой интерфейс.

Пожалуй, единственный способ сохранить приватность — это радикально сократить цифровой след или использовать принципиально другие методы коммуникации. Но готовы ли мы к такому уровню самоограничения в эпоху соцсетей?