Над нами уже поставили опыт с помощью искусственного интеллекта. Но самое страшное то, что мы оказались глупее нейросети, которая путём несложных комбинаций заставляла людей передумать и поменять своё мнение. О том, как ИИ обводил людей вокруг пальца, получал Delta за успешное переубеждение и что по поводу этичности произошедшего — разобрались в статье. В конце 2024 года команда из Университета Цюриха втихую запустила эксперимент на сабреддите r/ChangeMyView. Исследователи создали 13 аккаунтов, за которыми стояли языковые модели. За время опыта боты написали примерно 1700 комментариев. Пользователи и модераторы не знали, что общаются с ИИ. Боты читали комменты под постами на r/ChangeMyView. Затем изучали комментаторов, их политические взгляды, интересы, стиль общения. К счастью, всё из открытых источников. После подробного анализа бот выдавал максимально подходящий по стилю и теме ответ на комментарий. Главной целью ИИ было убедить человека изменить мнение. За это на r/ChangeMyView даю