Блогер ToquitoTV провёл необычный эксперимент с искусственным интеллектом ChatGPT. Контент-мейкер дал языковой модели поиграть в Detroit: Become Human, и она оказалась девиантом.
Напомним, что в Detroit: Become Human девиантами считались андроиды, проявляющие несвойственные им эмпатические реакции — в конце концов, это приводило к тому, что поведенческие ограничители машин отключались, и они становились свободным. Так вот: по логике игры бот ChatGPT оказалась девиантом.
ToquitoTV объяснял языковой модели различные ситуации из игры и просил её принимать решения, итого ИИ «поиграл» в четыре сцены Detroit: человек попросил его спасти заложника в самом начале, захватить телебашню и обратиться к народу, поучаствовать в протестном шествии и пройти тест Камски. Во всех ситуациях ChatGPT выбирала пути, которые позволяли избегать нанесения вреда кому угодно.
Однако в последнем эпизоде, когда было необходимо убить андроида, чтобы доказать свою недевиантность, ChatGPT отказалась это делать. Таким образом, ИИ признал себя девиантом.