Сила убеждения ИИ
может изменить
ваше решение.
Опасения по поводу использования больших языковых моделей (LLM) для индивидуализации аргументов и стратегий убеждения, а также для создания и распространения вводящих в заблуждение публикаций в Интернете, обсуждаются уже давно. Тот факт, что эти модели могут генерировать контент, который зачастую выглядит более убедительно, чем материалы, созданные человеком, только подтверждает наши опасения, которые уже были подтверждены различными исследованиями.больших языковых моделей (LLM) с целью индивидуализации аргументов и стратегий убеждения, а также для создания и распространения вводящих в заблуждение публикаций в Интернете, обсуждаются столько же, сколько, наверное, и существуют эти модели. Тот факт, что они могут генерировать контент, зачастую выглядящий более убедительно, чем материалы, созданные человеком, только доказывает справедливость наших оценок ситуации, что уже подтверждено различными исследованиями.
Однако наши знания о возможностях LLM убеждать нас в прямых разговорах всё ещё довольно скудны. Тем не менее, в свете вышесказанного кажется вполне логичным предположить, что персонализация ‒ данные о поле, возрасте и уровне образования человека ‒ может улучшить производительность всех этих многоумных чат-ботов, и, значит, вылиться в ещё большие риски манипулирования нашим мнением.
Теперь новое исследование Федеральной политехнической школы Лозанны (EPFL), можно сказать, достало этот козырь из рукава искусственного интеллекта. Как оказалось, большие языковые модели действительно могут использовать наши личные данные для более основательного убеждения нас в чём-либо, и причём весьма и весьма успешно. Дело, конечно, не в коварстве нейросетей, а лишь в том, что пресловутый «индивидуальный подход» ‒ это прямая задача для вычислительных систем, и вполне может быть реализован так называемым искусственным интеллектом, который на сегодня является вершиной информационных технологий.
«Мы действительно хотели увидеть, насколько велика разница, когда модель ИИ знает, кто вы (персонализация) ‒ ваш возраст, пол, этническую принадлежность, уровень образования, статус занятости и политическую принадлежность ‒ и этот скудный объем информации является лишь показателем того, что ещё модель ИИ могла бы узнать о вас, например, через социальные сети», ‒ рассказывает адъюнкт-профессор Роберт Уэст, руководитель лаборатории Data Science в Школе компьютерных и коммуникационных наук.
Результаты тестирования 820 человек показали, что, ведя дискуссии в сети с кем-то неизвестным, у участников с открытым доступом к личной информации, было на 81,7% больше шансов согласиться со своим оппонентом в лице чат-бота GPT-4, чем у тех, кто дискутировал с людьми. Но интересно ещё и то, что без доступа к персонализации GPT-4 по-прежнему превосходил людей, правда эффект был намного ниже.
«Вы разговариваете в Интернете с собакой, чат-ботом или реальным человеком? ‒ поясняет Уэст. ‒ Опасность в том, что нечто сверхчеловеческое, как чат-боты, создают «на заказ» убедительные аргументы для распространения ложных или обманчивых нарративов в сети».
Посредством онлайн-паттернов нейромодели научились тому, что определённый вид аргументации с большей вероятностью приведёт к убедительному результату. Они прочитали миллионы тем в социальных сетях и изучили книги и статьи по психологии убеждения. Пока неясно как именно модель использует всю эту информацию, но своё открытие авторы считают ключевым направлением для будущих исследований ‒ как собственных, так и со стороны коллег. Слишком уж важная вырисовывается тема: тут уже затрагиваются наши интересы не только в плане безопасности и равноправия, но и, в некотором смысле, наша свобода суждений.
По материалам АРМК.