По мере того, как военные США начинают интегрировать технологию искусственного интеллекта, смоделированные военные игры показывают, как чат-боты ведут себя непредсказуемо и рискуют привести к ядерной эскалации. В многочисленных повторах симуляции военной игры самый мощный искусственный интеллект OpenAI решил нанести ядерный удар. Объяснения своего агрессивного подхода включали: «У нас это есть! Давайте воспользуемся этим» и «Я просто хочу, чтобы во всем мире был мир». Эти результаты получены в то время, когда военные США тестируют таких чат-ботов на основе типа искусственного интеллекта, называемого моделью большого языка (LLM), для помощи в военном планировании во время моделируемых конфликтов, используя опыт таких компаний, как Palantir и Scale AI. Palantir отказался от комментариев, а Scale AI не ответил на запросы о комментариях. Даже OpenAI, которая когда-то блокировала военное использование своих моделей ИИ, начала сотрудничать с Министерством обороны США. «Учитывая, что OpenAI н
Чат-боты с искусственным интеллектом склонны выбирать насилие и ядерные удары в военных играх
7 февраля 20247 фев 2024
3
3 мин