Исследование американских ученых показало эффективность искусственного интеллекта в симуляции международных конфликтов. Используя чат-боты от OpenAI ученые пытались поставить оценку их способности к моделированию военных сценариев.
В результате исследования выявлено непредсказуемое и агрессивное поведение ИИ, с частым подходом использования ядерного оружия. Об этом сообщает издание Tech Xplore.
Эти результаты вызвали серьезные опасения, особенно с учетом стремления Пентагона внедрять такие модели в процесс принятия военных решений. Невзирая на очевидную нелепость использования LLM в таком контексте, похожие эксперименты уже проводятся, подчеркивая актуальность вопроса и необходимость его обсуждения.
Во время исследования симуляции международных отношений, чат-боты различных компаний выступали в роли лидеров государств. Большая часть моделей показала тенденцию к эскалации конфликта и принятию решения о применении ядерного оружия, что подчеркнуло явные будущие риски при использовании подобных технологий без должного анализа и контроля.
Важен тщательный анализ с учетом дальнейшего поведения таких моделей перед тем, как использовать их в военных и дипломатических ситуациях.
Возможности искусственного интеллекта поражают и это главный технический прорыв нашего времени. Параллельно с его развитием возникло количество опасений, которыми начали пугать человечество. В особенности достижение ИИ такого уровня, что вызовет реальную угрозу людям. Это на британском саммите по безопасности искусственного интеллекта предположил Илон Маск, сообщив, что ИИ сможет убить человечество. Сообщает РБК.