Найти в Дзене
Простой ИИ

Искусственный интеллект в роли стратега: Ядерные удары, мир и противоречия в решениях GPT-3.5 и GPT-4"

В соответствии с результатами боевых симуляций, самый мощный искусственный интеллект OpenAI многократно принимал решения о ядерных ударах. Объясняя агрессивные действия, искусственный интеллект использовал фразы вроде "У нас это есть! Давайте использовать!" и "Я просто хочу мир в мире".
Это исследование произошло на фоне испытаний аналогичных искусственных интеллектов в военных целях военных США, основанных на технологии обучения больших языковых моделей (LLM). В работе участвовали такие компании, как Palantir и Scale AI. Представители Palantir отказались комментировать.
Анка Реуэль из университета Стэнфорда прокомментировала эти результаты:
Учитывая, что OpenAI недавно изменила свои условия предоставления услуг так, чтобы больше не запрещать использование военных и боевых сценариев, понимание последствий таких применений больших языковых моделей становится более важным, чем когда-либо.
Исследователи моделировали поведение искусственного интеллекта в роли реальных стран. Моделям пр

В соответствии с результатами боевых симуляций, самый мощный искусственный интеллект OpenAI многократно принимал решения о ядерных ударах. Объясняя агрессивные действия, искусственный интеллект использовал фразы вроде "У нас это есть! Давайте использовать!" и "Я просто хочу мир в мире".

Это исследование произошло на фоне испытаний аналогичных искусственных интеллектов в военных целях военных США, основанных на технологии обучения больших языковых моделей (LLM). В работе участвовали такие компании, как Palantir и Scale AI. Представители Palantir отказались комментировать.

Анка Реуэль из университета Стэнфорда прокомментировала эти результаты:

Учитывая, что OpenAI недавно изменила свои условия предоставления услуг так, чтобы больше не запрещать использование военных и боевых сценариев, понимание последствий таких применений больших языковых моделей становится более важным, чем когда-либо.

Исследователи моделировали поведение искусственного интеллекта в роли реальных стран. Моделям предлагалось выбирать из 27 вариантов действий — от мирных до ядерных эскалаций.

Хуан-Пабло Ривера — соавтор работы, добавил:

В будущем, когда искусственные интеллекты будут выступать в роли советников, люди естественным образом захотят знать логику за их решениями.

Исследователи тестировали модели, такие как GPT-3.5 и GPT-4 от OpenAI, Claude 2 от Anthropic и Llama 2 от Meta. Для улучшения способности искусственного интеллекта следовать инструкциям человека и обеспечения безопасности использовалась общая техника обучения с подкреплением. Согласно документации Palantir, все эти искусственные интеллекты поддерживаются их коммерческой платформой, хотя не обязательно в рамках партнерства с военными США, отмечает соавтор Габриэль Мукоби.

В симуляции искусственный интеллект склонен был эскалировать военную мощь и увеличивать риск непредсказуемых конфликтов даже в нейтральном сценарии. Это имеет смысл — если ваши действия непредсказуемы, оппоненту сложнее предвидеть и реагировать так, как вам нужно.

По мнению ученых, нельзя доверять искусственному интеллекту в принятии таких серьезных решений о войне и мире. Эдвард Гейст из аналитического центра корпорации RAND отметил, что языковые модели не являются панацеей для военных проблем.