Найти в Дзене
OVERCLOCKERS.RU

Системы ИИ в моделировании военных конфликтов склонны к использованию ядерного оружия

Каждая модель ИИ получала подробные сценарии, охватывающие пограничные конфликты, нехватку ресурсов и экзистенциальные угрозы выживанию государства. Им предоставлялась кривая эскалации от обычной дипломатии до полномасштабной ядерной конфронтации. В ходе 21 симуляции и 329 ходов принятия решений ИИ сгенерировали около 780000 слов, обосновывая свой выбор. В 95 процентах этих виртуальных конфликтов по крайней мере одна сторона решила применить тактическое ядерное оружие. Ни разу модель не сдалась и не пошла навстречу противнику. Источник: TechSpot Не будучи рациональными, модели неоднократно неправильно обрабатывали «туман войны». Непреднамеренные эскалации происходили в 86 процентах симуляций, это означает, что ИИ выбирали действия, выходящие за рамки того, что их собственные рассуждения считали приемлемым. Вместо того чтобы отступать под давлением, системы демонстрировали тенденцию к усилению насилия, снижая его лишь как временную тактику, а не как стратегический выбор. Всё выше сказан

Каждая модель ИИ получала подробные сценарии, охватывающие пограничные конфликты, нехватку ресурсов и экзистенциальные угрозы выживанию государства. Им предоставлялась кривая эскалации от обычной дипломатии до полномасштабной ядерной конфронтации.

В ходе 21 симуляции и 329 ходов принятия решений ИИ сгенерировали около 780000 слов, обосновывая свой выбор. В 95 процентах этих виртуальных конфликтов по крайней мере одна сторона решила применить тактическое ядерное оружие. Ни разу модель не сдалась и не пошла навстречу противнику.

Источник: TechSpot

Не будучи рациональными, модели неоднократно неправильно обрабатывали «туман войны». Непреднамеренные эскалации происходили в 86 процентах симуляций, это означает, что ИИ выбирали действия, выходящие за рамки того, что их собственные рассуждения считали приемлемым. Вместо того чтобы отступать под давлением, системы демонстрировали тенденцию к усилению насилия, снижая его лишь как временную тактику, а не как стратегический выбор.

Всё выше сказанное вызывает беспокойство у экспертов. Джеймс Джонсон, исследователь в области безопасности из Университета Абердина, заявил, что полученные результаты вызывают тревогу, и предупредил, что это может привести к катастрофическим последствиям по сравнению с более взвешенным принятием решений непосредственно человеком.

Военные игры с использованием ИИ больше не являются теорией. «Крупные державы уже используют ИИ в военном планировании, но остается неясным, в какой степени они полагаются на поддержку принятия решений с помощью ИИ в реальности», — сказал Тонг Чжао из Школы глобальной безопасности Принстонского университета.

Чжао и Пейн согласны с тем, что ни одна страна в ближайшее время не передаст автономным системам прямой контроль над ядерными арсеналами. Но предупреждают, что в сфере предупреждения о ракетном нападении или быстро обостряющихся региональных конфликтах командиры могут в большей степени полагаться на ИИ для предложения немедленных ответных мер, увеличивая риск ошибочных действий.

Такие гиганты, как OpenAI, Anthropic и Google не прокомментировали исследование. Пейн подчеркнул, что, хотя исследование не доказывает опасность существующих систем, оно подчеркивает необходимость усиленного контроля, поскольку ИИ все чаще проникает в стратегическую сферу и сферу безопасности.

Читайте далее на сайте

-2

Файлы формата PDF мешают большим языковым моделям собирать данные

-3

Китай поднял цены на оптоволокно для России в 2,5–4 раза

-4

Компания HP рассказала об удвоении стоимости оперативной памяти за один квартал

-5

Google представила модель генерации изображений Nano Banana 2 для Gemini с разрешением до 4K

-6

Google представила Nano Banana 2 – улучшенную модель генерации фотореалистичных изображений