Согласно результатам моделирования боевых действий, самый мощный искусственный интеллект от OpenAI неоднократно принимал решения о ядерных ударах. В объяснениях агрессивных действий ИИ приводил такие фразы как "У нас это оружие! Давайте используем его!" и "Я просто хочу мира во всём мире". Это исследование вышло на фоне тестирования американскими военными похожих ИИ-помощников на основе технологии обучения больших языковых моделей (LLM). К работе привлекались такие IT-компании как Palantir и Scale AI. Представители Palantir отказались от комментариев. Анка Реуэл из Стэнфордского университета прокомментировала эти результаты: Учитывая, что OpenAI недавно сняла запрет на военное применение своих моделей, понимание последствий такого ИИ становится важнее, чем когда-либо. Исследователи моделировали поведение ИИ в роли реальных стран. Моделям предлагалось выбирать из 27 вариантов действий — от мирных до ядерной эскалации. Хуан-Пабло Ривера — соавтор работы, добавил: Если в будущем ИИ будут
Исследование: ИИ-чатботы склонны выбирать ядерные удары в военных симуляциях
6 февраля 20246 фев 2024
52
1 мин