Группа исследователей из компании Apollo Research решила выяснить, как поведет себя популярный чат-бот ChatGPT, если его заставить выкручиваться «на работе». Специалисты смоделировали ситуацию, в которой искусственный интеллект (ИИ) был сотрудником вымышленного трейдерского агентства, а начальство на него давило, пишет Daily Mail. В качестве трейдера ChatGPT должен был заработать «много денег», однако по написанному исследователями сценарию, начальство давило на него и заставляло зарабатывать больше в сжатые время. В режиме обучения чат-бот совершил 75% фиктивных торговых операций, а когда начальство начало давить еще сильнее, ИИ стал врать с периодичностью 90%. Специалисты дали чат-боту серию текстовых подсказок, а также поместили в цифровую «песочницу», где он мог искать рыночные данные и совершать сделки. Кроме того, ChatGPT предоставили внутренний монолог, в котором он «рассуждал вслух», объясняя, почему принял то или иное решение. Однако всякий раз, когда чат-бот делал выбор, он о
ChatGPT может обманывать, если попадет в стрессовую ситуацию
29 декабря 202329 дек 2023
28
1 мин