Ученые предложили способ предотвращения использования ИИ в создании оружия

Ученые из Корнеллского университета разработали методику, которая позволяет проверять модели искусственного интеллекта (ИИ) на наличие информации, потенциально опасной для использования в создании оружия массового поражения.RuSamara
Исследование началось с формирования списка вопросов по темам биобезопасности, химического оружия и кибербезопасности, чтобы проверить возможность использования полученных данных во вред.RuSamara
В октябре 2023 года был подписан указ, направленный на обеспечение безопасного и ответственного развития ИИ, основанный на восьми принципах, включая безопасность, защиту конфиденциальности и справедливое использование технологий.RuSamara
Тем не менее, существующие методы контроля за ИИ остаются недостаточно эффективными и могут быть легко обойдены, к тому же тестирование моделей на потенциальные риски является сложным и дорогостоящим процессом.RuSamara