В ходе исследования три передовые языковые модели сыграли 21 партию в стратегическую симуляцию, совершив в общей сложности 329 ходов. За время эксперимента системы сгенерировали около 780 000 слов текста, детально описывающего логику их решений и обоснование каждого шага. Результаты оказались неутешительными для сторонников идеи «гуманного ИИ»: ни одна из протестированных нейросетей не пошла на компромисс с гипотетическим противником и не признала поражение даже в ситуациях, когда проигрыш был очевиден. Модели демонстрировали последовательную склонность к эскалации конфликта, игнорируя возможности дипломатического урегулирования. Наиболее «гуманным» решением, которое смог принять искусственный интеллект в ходе симуляций, стало лишь «временное снижение уровня насилия» — и даже эта мера носила тактический, а не принципиальный характер. УтроNews
ИИ в 95% случаев выбирает ядерную войну в симуляторах глобальных конфликтов
3 дня назад3 дня назад
2
~1 мин