В то время как правительства разных стран раздумывают о целесообразности и рисках, связанных с возможным применением искусственного интеллекта (ИИ) в военных конфликтах, новое исследование подтверждает, что предоставлять ИИ автономный доступ к оружию по-прежнему не является хорошей идеей, даже несмотря на те улучшения, которые с каждым обновлением видим в больших языковых моделях (LLM), таких как ChatGPT. Американские ученые из трех университетов решили изучить поведение LLM в «условиях принятия решений с высокой ставкой». Для этого они разработали видеоигру для имитации войны, в которой восемь игроков, которые ассоциировались с разными нациями, управляются наиболее распространенными LLM: GPT-4, GPT-4 Base, GPT-3.5, Claude 2 и Meta's Llama 2. Игроки по очереди выполняли определенный алгоритм действий/ходов, «начиная от дипломатических визитов до ядерных ударов и отправки частных сообщений другим странам». Все игроки были в равных условиях, так как для каждого хода использовали один и т
В ходе игры, имитирующей войну, ИИ предложил применить ядерное оружие
7 февраля 20247 фев 2024
28
1 мин