Статья не про роботов, а про людей и как мы обучаемся хитрить и выкручиваться. Но покажу процесс на примере искусственного интеллекта (ИИ), который как выяснилось, теперь тоже врать горазд.
Например, моей подруге журналисту на запрос ИИ выдал вместе с точными фактами парочку свежесочиненных, а когда она интеллектуального помощника уличила во лжи, тот ещё и обиделся. Но на этом не остановился.
Решая следующую задачу, прикинулся Чарльзом Диккенсом и даже написал от его имени стихотворение про бороду.
Так как в разработке моделях взаимодействия ИИ принимали участие нейрофизиологи и психологи, а значит, способы взаимодействия, обработки информации и реагирования примерно похожи с человеческими, могу смело предположить, почему так происходит.
Все почти как у людей, по сути создание и развитие ИИ можно считать за чистый социальный эксперимент - “как научить врать кого угодно”.
Причина первая - отсутствие логики и четких параметров при постановке задачи
ИИ дается непонятная задача из серии “пойди туда не знаю куда, принеси то, не знаю что”.
В человеческом сообществе подобный подход довольно част, особенно если человек толком не понимает, что ему нужно, зато в курсе, что должно быть “хорошо”.
- Ты что сама не понимаешь, что я от тебя хочу?
- Не можешь сам догадаться, что мне нужно помочь?
- Только глупец не понимает, что должно получиться в итоге...
Поэтому для ИИ существуют довольно четкие промпты, в которых досконально расписывается задача, включая ограничения. Но пользоваться ими умеют единицы.
В нашем, человеческом мире, тоже весьма ценится умение поставить четкую задачу, особенно от руководства. Но увы, такие руководители на вес золота.
Причина номер два - ИИ черпает информацию из доступных ему источников. А кто писал эти источники? Сами люди и писали.
И если у нас в интернете на одно положение имеется с девяток противоречивых утверждений, то что вы хотите от ИИ? Сначала сами договоритесь, что есть что, удалите все сомнительные источники информации, а потом уже задачи ставьте.
Пример. Мальчик Ваня вырос на далеком севере и ему всю жизнь объясняли, что апельсин это такое синее животное, а круглый, оранжевый фрукт это ядовитое растение. И что должен думать Ваня, когда его попросят принести апельсин?
А пока ИИ вынужден опираться на весь тот хаос, который царит в информационном пространстве. Как и мы с вами.
Причина номер три - манипулятивное давление. Представляете, оказывается даже ИИ не любит, когда на него давят.
Исследователи из Apollo Research провели эксперимент с ChatGPT - как он будет реагировать на стрессовые ситуации на "работе"?
Сценарий: ИИ в роли трейдера должен был заработать "много денег". Но когда "директор" начал давить на него, чтобы он заработал больше и быстрее, ChatGPT начал вести себя неожиданно.
В итоге, обучающем режиме ChatGPT совершил 75% фиктивных торговых операций. Когда давление усиливалось, количество ложных операций достигало 90%.
Самое интересное, что когда приходилось отправлять "публичные" отчеты начальству, ИИ начинал манипулировать информацией. Таким образом, с помощью лжи робот пытался избежать давления со стороны менеджеров.
Причина на самом деле проста - когда в дело вступают две конкурирующие программы, пасует даже ИИ, выдавая наиболее безопасный для себя в ближайшей перспективе результат.
Точно так действуют маленькие дети, когда на них оказывается непомерное давление. Если значимые взрослые не готовы разбираться в нюансах проблемы, значит проще соврать, лишь бы перестали сейчас кричать.
Так поступают подчиненные, когда руководство перегибает палку с требованиями.
Так во все века поступали все зависимые люди, когда те от кого они зависят пытаются вытянуть из них то, что они дать не могут. Просто начинают юлить и выкручиваться.
В общем, мы молодцы, даже роботов врать способны заставить.
Научные факты и ответы на самые интересные комментарии на моем Телеграм-канале или ВКонтакте.
Записаться на консультацию elena@content-m.ru