18 стран, включая США, Великобританию и Австралию выпустили 20-страничный документ, в котором описывается, как компании, занимающиеся ИИ, должны обращаться с кибербезопасностью при разработке или использовании ИИ-моделей. В документе подчеркивается, что безопасность часто остается на втором плане в быстро развивающейся индустрии. Основные рекомендации включают в себя контроль за инфраструктурой модели ИИ, мониторинг на предмет вмешательства в модели до и после их выпуска, а также обучение персонала осведомленности о рисках кибербезопасности. 🌐 В рекомендациях не упоминаются некоторые спорные вопросы в сфере ИИ, такие как контроль за использованием моделей генерации изображений и "дипфейков" или методы сбора данных и их использование при обучении моделей — вопрос, который привел к судебным искам против нескольких компаний ИИ за нарушение авторских прав. Алехандро Майоркас, министр внутренней безопасности США, заявил: "Мы находимся в точке перелома в развитии искусственного интеллекта,
👨💻‼️18 стран выпустили глобальные рекомендации по "безопасному дизайну" ИИ
27 ноября 202327 ноя 2023
1
1 мин