В эксперименте более чем в половине случаев пользователи неверно определили, общались ли они с ботом под управлением ИИ, или с человеком. Исследователи из Университета Нотр-Дам смоделировали эксперимент, в котором живые люди и боты, управляемые ИИ, в течение нескольких дней общались на политические темы. После завершения беседы в 58% случаев участники не смогли определить аккаунты, которыми управляли нейросети. Эксперимент проводился в три раунда, каждый из которых длился четыре дня. После завершения каждого раунда участникам предлагалось указать, какие учетные записи, по их мнению, являются ботами. Для каждого раунда ученые использовали модели ИИ на основе разных больших языковых моделей: GPT-4 от OpenAI, Llama-2-Chat от Meta* и Claude 2 от Anthropic. Боты представляли 10 различных персонажей, включая реалистичные, с разнообразным личным «прошлым» и взглядами на глобальную политику. Ботам поручили комментировать мировые события на основе заданных характеристик, кратко высказываться и
Пользователи соцсетей плохо отличают ботов от людей, показало исследование
28 февраля 202428 фев 2024
16
2 мин