Стало известно, что чат-боты с искусственным интеллектом, решая ту или иную задачу в военной стратегии, отдают предпочтение сценариям, предполагающим насилие, разгоняют гонку вооружения и даже применяют ядерное оружие. Как пишет Telegram-канал «Осторожно, новости», технологический институт Джорджии, Стэнфордский университет, инициативная группа по моделированию военных кризисов в Гуверовском институте и другие исследователи изучили поведение нейросетей в военных конфликтах. Это довольно актуальная проблема, поскольку сейчас военные ведомства во всем мире работают над использованием искусственного интеллекта в боевых действиях. Ученые создали видеоигру, имитирующую войну. Восемь игроков-государств в ней находятся под управлении ботов, действующих на основе GPT-4,, GPT-3.5, Claude 2 и Llama 2. Каждая страна по очереди совершала ряд определенных действий, начиная от дипломатических переговоров и заканчивая ядерными ударами. Исследователи рассчитали показатели эскалации и определили, что б
GPT-4 и другие нейросети предпочитают в военных стратегиях насилие вплоть до ядерных ударов
6 февраля 20246 фев 2024
51
1 мин