Питерские ученые из РАН обучили нейросеть выявлять в соцсетях группы вредоносных ботов, которые могут писать, например, ложные отзывы или накручивать рейтинги компаниям. Что принципиально нового в этом: нейронку не сбивает с толку ни язык, на котором общается бот, ни структура соцсети (раньше то и другое мешало ее работе), ни убедительное поведение, похожее на человеческое. Точность распознавания – до 90%. Использовать такой ИИ можно для выявления информационных атак и противодействия им, а еще – для расследования киберпреступлений. «Проблема в том, что в мире существует большое количество соцсетей, все они отличаются друг от друга и содержат информацию на разных языках. Однако мы разработали прототип системы для контроля над групповой деятельностью ботов на основе анализа общих входных данных о самих ботах, который не зависит от языка общения и структуры соцсетей. Такие данные присутствуют в любой соцсети», – говорит ведущий научный сотрудник лаборатории проблем компьютерной безопасно
Роботы уничтожат не нас, а друг друга: российская нейросеть научилась ловить ботов
26 августа 202126 авг 2021
3
1 мин