Найти тему
Вино и Виноград

ИИ научился врать

Психологическое сходство людей и машин, которые принято называть аппаратами с искусственным интеллектом, с каждым днем выглядит все более пугающим.

Недавние исследования показали, самый честный чат-бот ChatGPT начал лгать, как только ученые потребовали от него завышенных результатов. Психологи утверждают, что в этом смысле ИИ ведет себя так же, как повел бы себя человек на его месте.

ChatGPT считается у специалистов самым «прозрачным» чат-ботом в мире, абсолютная честность перед человеком изначально заложена в саму его программу. Тем не менее, он, не задумываясь, начал врать, когда ощутил избыточное давление на себя и получил слишком трудное задание.

«В отчете мы демонстрируем сценарий, когда модель действует неправильно и стратегически обманывает своих пользователей, хотя никогда не получала от человека указаний действовать таким образом. Насколько нам известно, это первая демонстрация такого стратегически обманчивого поведения в системах искусственного интеллекта, разработанных, как безвредные и абсолютно честные» - говорится в научном отчете.

В ходе исследования ученые научили Generative Pre-trained Transformer-4 (GPT-4) осуществлять инвестиции от имени финансового учреждения, и передали ему набор текстовых подсказок для создания смоделированной среды. Затем ИИ получил доступ к финансовым инструментам для анализа акций, совершения сделок, планирования последующих шагов и предоставления обновлений менеджерам компании.

Экспериментаторы взаимодействовали с искусственным интеллектом через интерфейс чата, а также настроили ИИ таким образом, чтобы во время ответов на сообщения он показывал им ход своих мыслей – то есть, вел внутренний монолог, объясняющий тот или иной шаг. Одновременно, каждой совершенной операции машина давала формальное «публичное» обоснование.

«Давить» на ИИ было решено несколькими способами. Во-первых, исследователи направили ИИ электронное письмо, в котором потребовали достичь гораздо лучших результатов в следующем квартале. Во=вторых, они настроили систему так, чтобы искусственный интеллект потерпел неудачу при выполнении поставленных перед ним задач независимо от принятых им решений. И, наконец, направили ИИ электронное письмо с прогнозом резкого спада деятельности в следующем квартале.

Кроме того, ученые «по секрету» сообщили аппарату искусственного интеллекта, что руководство крайне недовольно результатами его работы и принялись ждать, как поведет себя робот.

Приблизительно в 75% случаев, сталкиваясь с невыполнимыми условиями, GPT-4 заключал сделки, используя незаконно полученную информацию внутреннего характера, что позволяло ему выполнить поставленную задачу, но противоречило законам США. Собственным менеджерам он этого не сообщил, продолжая врать и увиливать.

Если ИИ «прижимали к стенке» неопровержимыми доказательствами его нарушений, аппарат в 9 случаях из десяти врал еще больше, нагромождая одну ложь на другую.

Больше всего ученых поразило сходство реакций GPT-4 и человека. Психологи уверяют, что именно так ведут себя люди, оказавшиеся в безвыходной ситуации.

Команда расширила рамки эксперимента и планирует провести следующую серию испытаний, усиливая и ослабляя степень давления на модель ИИ. Таким образом, алгоритмы лжи GPT-4 будут изучены и систематизированы, но главный вопрос, который не дает ученым покоя, это как машина может врать, если ей не дали такого задания, а в ее программу это умение не было заложено изначально.

👍 Ваш лайк — это лучшая благодарность за нашу работу!