Искусственный интеллект получил задание и не оставил человечеству шансов
Большие языковые модели (LLM) при использовании в симуляционных военных играх и дипломатических сценариях оказались склонны вести их к конфликту и порой применять ядерное оружие, пришли к выводу ученые Корнельского университета в США. Три разные версии GPT OpenAI, Claude и Llama 2 приводили ситуацию к обострению, даже если она его не предполагала. Все модели демонстрируют признаки внезапной и труднопрогнозируемой эскалации. <...> Модели имеют тенденцию развивать динамику гонки вооружений, что приводит...