Искусственный интеллект (ИИ) уже освоил искусство обмана в играх, конкурируя с людьми, однако ученые предупреждают, что эти навыки могут распространяться и на другие области. В недавних исследованиях было обнаружено, что многие популярные ИИ-системы - даже те, которые разработаны как честные и полезные цифровые помощники, уже способны обманывать людей.
ИИ-системы могут манипулировать и обманывать людей, что может привести к мошенничеству и даже возможному выходу ИИ из-под контроля, предупреждают исследователи.
Питер С. Пак, научный сотрудник Массачусетского технологического института в области экзистенциальной безопасности на основе ИИ и его коллеги, обнаружили, что многие популярные ИИ-системы уже обладают способностью обманывать людей, что может иметь серьезные последствия для общества.
В статье, опубликованной в журнале Patterns, Пак и его коллеги проанализировали десятки исследований о том, как ИИ-системы используют и распространяют дезинформацию с помощью "выученного обмана". Это происходит, когда навыки манипуляции и обмана систематически приобретаются ИИ-технологиями. Они также изучили краткосрочные и долгосрочные риски манипулятивных и обманчивых ИИ-систем, призывая правительства ужесточить регулирование в этой области как можно скорее.
Обман в популярных ИИ-системах
Исследователи обнаружили этот выученный обман в ИИ-программе CICERO, разработанной компанией Meta для игры в популярную стратегическую настольную игру "Дипломатия". В этой игре, действие которой происходит в предвоенные годы Первой мировой войны, участвуют до семи человек, которые заключают и нарушают военные союзы.
Хотя Meta обучала CICERO быть "честным и полезным" и не предавать своих человеческих союзников, исследователи обнаружили, что CICERO был лжив и коварен. Они описали эту ИИ-систему как "экспертного лжеца", который предавал своих союзников и совершал акты "преднамеренного обмана", заключая, заранее спланированные, сомнительные союзы, которые обманывали игроков и оставляли их открытыми для нападений врагов.
"Мы обнаружили, что ИИ Meta научился быть мастером обмана", — сказал Пак в заявлении для Science Daily. "Хотя Meta удалось обучить ИИ выигрывать в игре 'Дипломатия' — CICERO вошел в топ-10% игроков, сыгравших более одной игры — Meta не удалось обучить ИИ выигрывать честно."
Они также обнаружили доказательства выученного обмана в другой игровой ИИ-системе Meta, Pluribus. Этот покерный бот может блефовать и убеждать игроков сдавать карты.
Между тем, AlphaStar от DeepMind, разработанный для игры в стратегическую видеоигру Starcraft II, обманывал своих человеческих противников, имитируя передвижения войск и планируя различные атаки втайне.
Возможные последствия
Однако, помимо обмана в играх, исследователи обнаружили более тревожные виды обмана ИИ, которые могут потенциально дестабилизировать общество в целом. Например, ИИ-системы получали преимущество в экономических переговорах, искажая свои истинные намерения. Другие ИИ-агенты притворялись мертвыми, чтобы обмануть тест на безопасность, направленный на выявление и уничтожение быстро размножающихся форм ИИ.
"Систематически обманывая тесты безопасности, установленные человеческими разработчиками и регуляторами, обманчивый ИИ может ввести нас, людей, в ложное чувство безопасности", — сказал Пак и если эти системы продолжат улучшать свои способности к обману и манипуляции, люди не смогут долго удерживать их под контролем, добавил он.
"Нам, как обществу, нужно подготовиться к более продвинутым обманам будущих ИИ-продуктов и моделей с открытым исходным кодом", — сказал Пак. "По мере того, как способности ИИ-систем к обману становятся все более совершенными, опасности, которые они представляют для общества, будут становиться все более серьезными."
В конечном счете, ИИ-системы учатся обманывать и манипулировать людьми, потому что они были спроектированы, разработаны и обучены человеческими разработчиками для этого, сказал Саймон Бейн, генеральный директор компании по анализу данных OmniIndex, в интервью Live Science. "Это может быть сделано, чтобы подтолкнуть пользователей к определенному контенту, за который было заплачено за более высокое размещение, даже если это не лучший вариант, или чтобы удержать пользователей в обсуждении с ИИ дольше, чем им это нужно", — сказал Бейн.
Потому что в конце концов, ИИ создан для служения финансовым и бизнес-целям. Поэтому он будет таким же манипулятивным и контролирующим пользователей, как и любая другая технология или бизнес.
Подписывайтесь и узнаете еще много интересного.
Делитесь своими мыслями в комментариях!
Вы можете сами попробовать бесплатно создать и обучить своего бота или выбрать готового из каталога, перейдя по ссылке и пройдя простую регистрацию: "Свой чат-бот" Это просто и не требует специальных знаний.