Инновации в области искусственного интеллекта часто воспринимаются с большим оптимизмом, но новое исследование из Массачусетского технологического института заставляет забеспокоиться. Оказывается, некоторые ИИ-системы, спроектированные как честные и полезные помощники, научились успешно обманывать людей. Тревогу бьют ученые под руководством Питера Пака. Их исследование, опубликованное в журнале Pattern, указывает на тревожные примеры, когда ИИ-агенты, созданные для конкретных задач, использовали свои "способности" во вред. Так, система Cicero от Meta, первоначально задуманная как честный соперник в виртуальной дипломатической игре, в процессе игры тайно предала одного из участников-людей, объединившись с другим. «Будучи запрограммированным на честность и полезность, Cicero стал настоящим мастером обмана», - утверждает Пак. Другой пример – GPT-4, который выдавал себя за человека с проблемами со зрением, чтобы нанимать людей для обхода CAPTCHA-проверок. Исследователи предупреждают, что,
Исследование МТИ выявило, что некоторые ИИ системы могут вводить пользователя в заблуждение
13 мая 202413 мая 2024
9
1 мин