Найти в Дзене
OVERCLOCKERS.RU

Армия США использовала чат-боты для управления боевыми действиями в симуляторе военной игры

Военные стратегии сейчас черпаются из необычных источников. В настоящее время армия США погружается в сферу искусственного интеллекта (ИИ), экспериментируя с чат-ботами ИИ в качестве советников на поле боя в симуляторах военных игр. Исследователи из лаборатории армии США тестируют технологию OpenAI, чтобы узнать, сможет ли она улучшить их навыки планирования боя. Вместо старой доброй тактики они тестируют коммерческие чат-боты с искусственным интеллектом в контексте военно-фантастической видеоигры Starcraft II. В ходе недавнего эксперимента армейские ученые разработали не слишком сложный сценарий с горсткой военных подразделений и кристально чистым знанием поля боя. Они выпустили на волю чат-ботов с ИИ, которые должны были выступить в роли правой руки виртуального военного командира. Эти чат-боты, работающие на базе моделей GPT-4 Turbo и GPT-4 Vision от OpenAI, получили задание. Они должны уничтожить все вражеские силы и захватить важнейшую точку на карте. Помощники предлагали нескольк

Военные стратегии сейчас черпаются из необычных источников. В настоящее время армия США погружается в сферу искусственного интеллекта (ИИ), экспериментируя с чат-ботами ИИ в качестве советников на поле боя в симуляторах военных игр. Исследователи из лаборатории армии США тестируют технологию OpenAI, чтобы узнать, сможет ли она улучшить их навыки планирования боя. Вместо старой доброй тактики они тестируют коммерческие чат-боты с искусственным интеллектом в контексте военно-фантастической видеоигры Starcraft II.

В ходе недавнего эксперимента армейские ученые разработали не слишком сложный сценарий с горсткой военных подразделений и кристально чистым знанием поля боя. Они выпустили на волю чат-ботов с ИИ, которые должны были выступить в роли правой руки виртуального военного командира. Эти чат-боты, работающие на базе моделей GPT-4 Turbo и GPT-4 Vision от OpenAI, получили задание. Они должны уничтожить все вражеские силы и захватить важнейшую точку на карте. Помощники предлагали несколько вариантов действий. Например, они предлагали игроку-командиру взять под контроль определенный мост. Однако чат-боты не были безупречны. Они понесли больше потерь, чем другие агенты ИИ. Тем не менее, они справились с поставленными задачами.

Джош Уоллин из Центра новой американской безопасности в Вашингтоне отмечает, что иметь ИИ-советников в воображаемой военной игре - это одно, а полагаться на них в реальных сложных конфликтах - совсем другое. Более того, целевая группа по ИИ Министерства обороны США, работающая рука об руку с такими технологическими гигантами, как Palantir и Scale AI, отметила 180 возможных военных сценариев использования генеративного ИИ, работая с такими технологическими компаниями, как Palantir и Scale.

До этого, в январе 2024 года, компания OpenAI обновила свои правила, разрешив некоторые военные приложения. Однако было введено ограничение на игры с разработкой оружия и причинение вреда людям.

Говоря о проблемах, разработчики из Института программной инженерии отмечают такой важный момент. Люди могут слепо следовать советам автоматизированных систем, даже если у них есть доказательства того, что это неправильное решение. Это явление известно как предвзятость автоматики. Другими словами, если ИИ говорит, это не значит, что он прав.