Добавить в корзинуПозвонить
Найти в Дзене
ТехНовостИИ

Анонимность в интернете и ИИ: что известно о моделях, которые могут вычислять владельцев фейковых аккаунтов

Полной анонимности в сети становится всё меньше, и теперь это уже не просто общая тревога, а предмет конкретного исследования. Авторы новой работы показали, что большие языковые модели способны деанонимизировать псевдонимные аккаунты в крупном масштабе, используя только публичные тексты и открытый интернет. Это важно потому, что привычная логика «я пишу под другим именем, значит меня не найдут» явно слабеет. Исследование под названием Large-scale online deanonymization with LLMs выпустили авторы из ETH Zurich и Anthropic. В работе прямо сказано, что LLM можно использовать для массовой деанонимизации, а их агент с доступом в интернет смог повторно идентифицировать пользователей Hacker News и участников Anthropic Interviewer по псевдонимным профилям и текстовым следам. Авторы описывают не магию и не «взлом личности», а довольно прагматичный процесс: модель извлекает идентификационно значимые признаки, ищет кандидатов через семантические совпадения, а затем проверяет найденные версии. Н
Оглавление

Полной анонимности в сети становится всё меньше, и теперь это уже не просто общая тревога, а предмет конкретного исследования. Авторы новой работы показали, что большие языковые модели способны деанонимизировать псевдонимные аккаунты в крупном масштабе, используя только публичные тексты и открытый интернет. Это важно потому, что привычная логика «я пишу под другим именем, значит меня не найдут» явно слабеет.

Что известно сейчас

Исследование под названием Large-scale online deanonymization with LLMs выпустили авторы из ETH Zurich и Anthropic. В работе прямо сказано, что LLM можно использовать для массовой деанонимизации, а их агент с доступом в интернет смог повторно идентифицировать пользователей Hacker News и участников Anthropic Interviewer по псевдонимным профилям и текстовым следам.

Авторы описывают не магию и не «взлом личности», а довольно прагматичный процесс: модель извлекает идентификационно значимые признаки, ищет кандидатов через семантические совпадения, а затем проверяет найденные версии. На трёх наборах данных такой подход, по словам исследователей, существенно превзошёл классические методы и показал результат до 68% recall при 90% precision, тогда как лучшие не-LLM подходы были близки к нулю.

Почему это обсуждают

Главная причина очевидна: речь идёт не о спецслужбах с уникальными ресурсами, а о том, что подобные атаки становятся дешевле и проще. The Guardian со ссылкой на авторов пишет, что LLM делают такие privacy-атаки экономически оправданными, а значит, ими потенциально могут пользоваться не только исследователи, но и злоумышленники — от тех, кто строит персонализированный фишинг, до тех, кто пытается вычислять анонимных пользователей по обрывкам биографических деталей.

Но здесь важно не перегибать. Даже сами исследователи и опрошенные эксперты подчёркивают, что ИИ не становится абсолютным оружием против анонимности. Модели могут ошибаться, делать ложные совпадения и зависят от того, насколько последовательно человек оставляет похожие сигналы на разных площадках. Иными словами, угроза реальна, но не безошибочна.

И вот здесь появляется самый неприятный вопрос. А что если проблема уже не в одном фейковом аккаунте, а в самой идее «практической незаметности» в интернете? Авторы исследования прямо пишут, что защита, на которой раньше держалась псевдонимность онлайн, больше не работает так, как прежде. Это звучит жёстко, но именно поэтому новость получила такой резонанс.

Кому это особенно важно

В первую очередь — тем, кто ведёт анонимные или псевдонимные аккаунты, даже если не занимается ничем незаконным. Журналисты, активисты, эксперты, сотрудники компаний, люди с чувствительными темами в публичной коммуникации — для них подобные исследования важны не как абстрактная новость про ИИ, а как сигнал, что старые представления об анонимности больше не гарантируют прежнего уровня защиты.

Тем, кто ищет ответ на вопросы «что известно о деанонимизации аккаунтов ИИ», «может ли ИИ вычислить владельца фейкового аккаунта» и «насколько это уже работает на практике», стоит учитывать один важный момент: работа пока опубликована на arXiv, то есть это препринт, а не окончательно подтверждённый консенсус отрасли. Делать слишком широкие выводы рано, но игнорировать сам сигнал уже тоже нельзя.

Практический вывод пока выглядит так: если человек рассчитывает на анонимность только потому, что использует другой ник и не указывает имя, этого может быть недостаточно. А если публичные тексты на разных площадках складываются в узнаваемый профиль, ИИ получает всё больше шансов связать эти фрагменты между собой. Это уже не фантазия про далёкое будущее, а вполне предметный вектор развития технологии.

Пока данных всё же недостаточно для окончательной оценки масштаба угрозы. Нет полного понимания, как такие методы будут работать на более широких и менее удобных наборах данных, как быстро появятся коммерческие продукты такого класса и как платформы начнут на это отвечать. Но один вывод уже напрашивается: анонимность в интернете действительно стала заметно хрупче, чем раньше.

Как вам кажется, это реальное усиление ИИ-сервисов и инструментов поиска, или пока вокруг таких исследований больше шума, чем немедленной практической угрозы для обычных пользователей?