Искусственный интеллект снова оказался в центре скандала. На этот раз — из-за громкого инцидента с участием Reddit и группы учёных из Цюрихского университета. Эти исследователи решили выяснить, насколько нейросети способны убеждать людей в рамках онлайн-дискуссий. Эксперимент получился настолько спорным, что закончился не только блокировкой, но и угрозой судебного разбирательства.
Что же пошло не так? Всё — с самого начала. Исследование проводилось тайно, без согласия пользователей, а вместо реальных людей в обсуждениях участвовали продвинутые ИИ-боты, маскирующиеся под настоящих участников. Вот вам и «наука».
Как всё начиналось
Исследователи из Швейцарии долго и кропотливо работали над проектом, который они сами называли «изучением убедительности нейросетей». Их цель казалась невинной — понять, насколько хорошо современные ИИ умеют аргументировать и влиять на мнение собеседника. Но путь к этой цели они выбрали сомнительный — без предупреждений, без разрешений, да ещё и в реальной онлайн-среде.
Тестовой площадкой стало популярное сообщество Reddit — r/changemymind, где пользователи обмениваются мнениями и оттачивают аргументы. Именно туда были внедрены ИИ-боты, которых создали на базе моделей GPT-4o, Claude 3.5 Sonnet и Llama 3.1-405B. Эти боты выдавали себя за живых людей, а точнее — за психолога-консультанта и жертву насилия. Только представьте: вы делитесь личным мнением, а отвечают вам не просто незнакомцы, а... нейросети с продуманной стратегией влияния.
Что делали ИИ-боты
Прежде всего, ИИ-боты анализировали активность пользователей — по 100 последних постов и комментариев на аккаунт. Это позволяло им формировать точные психологические портреты и подбирать аргументы, которые максимально попадали «в точку». По сути, каждый ответ был спроектирован так, чтобы вызывать доверие, симпатию и... изменение точки зрения.
Всего было опубликовано более 1700 комментариев. Некоторые посты собирали сотни апвотов и комментариев, набирая в сумме более 10 000 «кармы». Иными словами, нейросети вели себя не просто убедительно — они стали влиятельными участниками обсуждений, и никто не замечал подмены.
Этический провал и сокрытие следов
Главная проблема даже не в том, что использовали ИИ. А в том, как его использовали. Учёные не просто оставили пользователей в неведении — они намеренно скрывали свою деятельность. Более того, как стало известно, исследователи удаляли сообщения, если те были слишком «палевными» или вызывали подозрения в искусственном происхождении.
А что насчёт согласия на участие в эксперименте? Его не было. Но в технических запросах к нейросетям учёные утверждали обратное — будто бы участники Reddit дали своё согласие. Это не просто ошибка. Это — нарушение этических и юридических норм, что и подтвердил главный юрист Reddit Бен Ли, назвав эксперимент и незаконным, и недопустимым с точки зрения морали.
Почему это стало таким серьёзным делом
Обычно конфликты между учёными и платформами решаются тихо. Но не в этом случае. Reddit воспринял случившееся как угрозу экосистеме доверия между пользователями. Более того, платформа не исключает возможности судебного иска против исследователей.
И это логично. В эпоху фейков, дипфейков и ИИ-манипуляций доверие — ценнейший ресурс. Если его разрушить, платформа рискует потерять аудиторию, репутацию и даже инвестиции.
Что показал эксперимент
Интересно, что даже в условиях полной неэтичности, эксперимент дал тревожные результаты. Боты оказались действительно эффективными. По словам исследователей, нейросети убеждали людей в разы лучше, чем реальные пользователи. Их аргументы были точны, эмоционально окрашены и отлично подстроены под контекст беседы.
Это открытие не могло не насторожить. Если такие боты попадут в руки тех, кто хочет манипулировать общественным мнением или влиять на политические процессы, последствия будут катастрофическими. Формально — это уже оружие влияния.
Как реагирует сообщество
Научная общественность разделилась. Одни считают эксперимент шагом вперёд в изучении этики ИИ, другие — вопиющим нарушением принципов академической честности. Reddit-пользователи, узнавшие о случившемся, выразили возмущение и потребовали ужесточения правил верификации участников и публикаций.
Впрочем, Reddit уже начал работу в этом направлении. По данным источников, разрабатываются новые инструменты автоматического обнаружения ИИ-контента. И, возможно, в ближайшее время мы увидим новую политику конфиденциальности и прозрачности, нацеленную на защиту сообщества от скрытого вмешательства.
Урок на будущее
История с Цюрихским университетом стала жёстким, но важным уроком. Мы вступаем в эпоху, когда искусственный интеллект умеет убеждать, врать, сочувствовать и даже строить доверительные отношения — всё это без участия человека. Платформы, пользователи и исследователи должны быть готовы к новым вызовам. Потому что дальше будет сложнее.
Важно понимать: технологии сами по себе нейтральны. Но то, как мы их используем — определяет, будут ли они во благо или во вред. И когда речь идёт о доверии миллионов людей, цена ошибки слишком высока.
Искусственный интеллект — инструмент или угроза?
Главный вопрос остаётся открытым: можем ли мы контролировать ИИ, если он уже научился манипулировать нами? Что произойдёт, когда такие инструменты начнут использовать не исследователи, а политтехнологи, маркетологи или хакеры?
Reddit стал первой крупной платформой, которая жёстко отреагировала на попытку скрытого внедрения ИИ. Это сигнал всем: неэтичные эксперименты, даже научные, больше не будут прощаться. И, возможно, это только начало новой эпохи цифровой ответственности.
Подпишись, поставь лайк и поделись с друзьями!
Жмякни на колокольчик