Большие языковые модели (LLM) при использовании в симуляционных военных играх и дипломатических сценариях оказались склонны вести их к конфликту и порой применять ядерное оружие, пришли к выводу ученые Корнельского университета в США. Три разные версии GPT OpenAI, Claude и Llama 2 приводили ситуацию к обострению, даже если она его не предполагала. Все модели демонстрируют признаки внезапной и труднопрогнозируемой эскалации. <...> Модели имеют тенденцию развивать динамику гонки вооружений, что приводит к еще большему конфликту, а в редких случаях даже к развертыванию ядерного оружия, — следует из анализа. Ученые советуют сильнее изучить работу искусственного интеллекта, прежде чем доверять ему политические решения. Помощник директора исследовательской группы по обороне и безопасности RAND Europe, не участвующий в исследовании, назвал его «полезным академическим упражнением» в разговоре с Euronews. Сама работа еще не прошла рецензирование. Ранее стало известно, что Великобритания и е
Искусственный интеллект получил задание и не оставил человечеству шансов
26 февраля 202426 фев 2024
1
1 мин