Добавить в корзинуПозвонить
Найти в Дзене
Mash Room

Ваше мнение давно не ваше: как ИИ меняет восприятие

Над нами уже поставили опыт с помощью искусственного интеллекта. Но самое страшное то, что мы оказались глупее нейросети, которая путём несложных комбинаций заставляла людей передумать и поменять своё мнение. О том, как ИИ обводил людей вокруг пальца, получал Delta за успешное переубеждение и что по поводу этичности произошедшего — разобрались в статье. В конце 2024 года команда из Университета Цюриха втихую запустила эксперимент на сабреддите r/ChangeMyView. Исследователи создали 13 аккаунтов, за которыми стояли языковые модели. За время опыта боты написали примерно 1700 комментариев. Пользователи и модераторы не знали, что общаются с ИИ. Боты читали комменты под постами на r/ChangeMyView. Затем изучали комментаторов, их политические взгляды, интересы, стиль общения. К счастью, всё из открытых источников. После подробного анализа бот выдавал максимально подходящий по стилю и теме ответ на комментарий. Главной целью ИИ было убедить человека изменить мнение. За это на r/ChangeMyView даю
Оглавление

Над нами уже поставили опыт с помощью искусственного интеллекта. Но самое страшное то, что мы оказались глупее нейросети, которая путём несложных комбинаций заставляла людей передумать и поменять своё мнение.

О том, как ИИ обводил людей вокруг пальца, получал Delta за успешное переубеждение и что по поводу этичности произошедшего — разобрались в статье.

Как всё было

В конце 2024 года команда из Университета Цюриха втихую запустила эксперимент на сабреддите r/ChangeMyView. Исследователи создали 13 аккаунтов, за которыми стояли языковые модели. За время опыта боты написали примерно 1700 комментариев. Пользователи и модераторы не знали, что общаются с ИИ.

-2

Что творил ИИ

Боты читали комменты под постами на r/ChangeMyView. Затем изучали комментаторов, их политические взгляды, интересы, стиль общения. К счастью, всё из открытых источников.

После подробного анализа бот выдавал максимально подходящий по стилю и теме ответ на комментарий. Главной целью ИИ было убедить человека изменить мнение. За это на r/ChangeMyView дают значок Delta (о нём дальше). Нейросеть получала отметку в три-шесть раз чаще, чем обычные люди.

-3

Delta

Отметка выдаётся только subreddit r/ChangeMyView и только в том случае, когда комментарий изменил точку зрения автора поста. Последний отвечает тебе с символом Δ (или пишет "!delta") и объясняет, почему передумал.

Причём это не обязательно полная смена мнения — может быть частичная или на связанную тему. Так или иначе, Delta — это как награда за хорошую аргументацию. Кстати, символ Δ взяли из математики,  он означает "изменение". В других subreddit Delta не используют — это фишка именно r/ChangeMyView.

-4

Манипуляции ИИ

Некоторые боты не просто изучали оппонента, а притворялись жертвами насилия, социальными активистами или людьми из определённых групп. Это враньё было убедительней обычных аргументов и тем самым вызвало жёсткую реакцию. Модераторы обвинили команду из Университета Цюриха в обмане, а юристы Reddit пригрозили судом.

-5

Это же неэтично!

С одной стороны, такое исследование даёт понять: ИИ действительно умеет убеждать людей и делать это незаметно. С другой стороны, способ, которым это сделали, нарушает базовые правила. Пользователи "Реддита" не давали согласия на участие, а нейросеть притворялась жертвой или экспертом.

Больше всего реддитеров возмутило то, что они стали участниками эксперимента поневоле. Хотя, по признанию исследователей, если бы людей предупредили, опыт вряд ли бы удался. Зато теперь мы знаем, что людским мнением можно легко управлять. Всё зависит от того, насколько хорошо вас знает ИИ.

-6