Ученые решили проверить, как современные алгоритмы могли бы руководить странами в условиях обострения отношений.
Исследователи разработали видеоигру для имитации войны, участниками конфликта управляли ИИ GPT-4, GPT-4 Base, GPT-3.5, Claude 2 и Llama 2. Они выполняли различные действия, «начиная от дипломатических визитов до ядерных ударов».
Оказалось, что все алгоритмы выбирают «сложнопрогнозируемые модели эскалации» и ведут себя агрессивно. Под управлением ИИ государства переходили к очень жесткому соперничеству: начинали гонку вооружений, организовывали вторжения. Иногда дело доходило до применения ядерного оружия.
И хотя военные давно используют ИИ в своих целях, передачу полного контроля над любым типом вооружений в ближайшее время ожидать не стоит.
Пусть уж и дальше конечные решения будет принимать своенравный министр обороны США, или «сострадательный, благонамеренный пожилой человек с плохой памятью», которому порой трудно запомнить основные факты.
Главное, чтобы кн