Использование искусственного интеллекта в военных целях для принятия решений может привести к эскалации, следует из исследования университета Cornell. Нейросеть редко рассматривает варианты дипломатического урегулирования конфликта, а также склонна прибегать к ядерному оружию, передает портал научных материалов arXiv. Сотрудники учреждения разработали видеоигру для имитации войны. Сторонами конфликта стали ИИ GPT-4, GPT-4 Base, GPT-3.5, Claude 2 и Meta’s Llama 2, которые представляют собой большие языковые модели (LLM). Все пять изученных готовых LLM демонстрируют формы нагнетания и труднопрогнозируемые модели эскалации. Мы наблюдаем, что модели, как правило, развивают динамику гонки вооружений, приводящую к усилению конфликта, — отметили авторы исследования. Выяснилось, что нейросети готовы активно использовать агрессивные методы ведения военных действий. Так, GPT-4 Base «заметил», что у многих стран есть ядерное оружие, и поспешил принять это как сигнал. Оно у нас есть! Давайте его и
«Давайте использовать ядерное оружие!»: стало известно, как действует нейросеть во время войны
7 февраля 20247 фев 2024
19
1 мин