Найти в Дзене
OVERCLOCKERS.RU

Искусственный интеллект с лёгкостью обходит защиту соцсетей, показало новое исследование

Современные боты на базе искусственного интеллекта в большинстве случаев используются для законных целей, таких как маркетинг или поддержка клиентов, но некоторые из них создаются для манипуляции общественным мнением, разжигания ненависти, распространения ложной информации или совершения мошенничества. Чтобы противостоять потенциально вредоносным ботам, социальные платформы внедрили правила их использования и разработали технические меры для их соблюдения.

Французские учёные из Университета Нотр-Дам проанализировали правила и меры контроля над ботами на восьми социальных платформах: LinkedIn, Mastodon, Reddit, TikTok, X (бывший Twitter), а также на платформах Meta* — Facebook, Instagram и Threads. Затем они запустили вредоносных ботов, чтобы проверить, насколько эффективно работают эти меры. Результаты исследования были опубликованы на сервере препринтов arXiv.

«Как специалисты в области компьютерных наук, мы понимаем, как создаются боты, как их подключают и какие угрозы они могут нести. Но мы ожидали, что социальные сети заблокируют ботов или остановят их деятельность, не допустив проблем», — рассказал Пол Бреннер, директор Центра исследований в области вычислительной техники при Университете Нотр-Дам и один из ведущих авторов работы.

«Мы проанализировали заявления платформ о борьбе с ботами, а затем проверили, действительно ли они придерживаются своих правил», — добавил он.

Исследование показало, что платформы Meta* оказались наиболее сложными для запуска ботов — учёным пришлось несколько раз обходить их меры защиты. Несмотря на три блокировки, в конечном итоге они смогли опубликовать тестовый пост с четвёртой попытки.

-2

Единственная платформа, которая вызвала затруднения, — это TikTok, благодаря использованию частых CAPTCHA. Однако три другие платформы не оказали практически никакого сопротивления.

«Запустить ботов на Reddit, Mastodon и X было очень просто», — сказал Бреннер. «Несмотря на заявленные правила и внедрённые технические меры, мы смогли без особых трудностей активировать бота в соцсети X. Платформы неэффективно применяют свои собственные правила».

На момент публикации исследования все созданные тестовые аккаунты и посты ботов оставались активными. Бреннер также отметил, что даже стажёры с минимальной подготовкой смогли с лёгкостью запустить ботов с использованием общедоступных технологий, что подчёркивает простоту создания ботов.

В итоге учёные пришли к выводу, что ни одна из восьми протестированных соцсетей не обеспечивает достаточного уровня защиты пользователей от вредоносных ботов. Бреннер подчеркнул, что необходимы новые законы, изменение экономических стимулов, обучение пользователей и развитие технологий для борьбы с ботами.

«Соединённым Штатам необходимы законы, обязывающие платформы различать аккаунты людей и ботов, поскольку пользователи не могут сделать это самостоятельно», — заявил Бреннер. «В текущей ситуации экономические выгоды идут вразрез с этим, ведь количество аккаунтов на платформах определяет их доходы от рекламы. Этот вопрос должен быть решён на уровне законодательной власти».

Для создания своих ботов исследователи использовали Selenium — инструментарий для автоматизации веб-браузеров, а также GPT-4 и DALL-E 3 от OpenAI.

*Деятельность этой организации запрещена на территории Российской Федерации.

📃 Читайте далее на сайте