К концу 2025 года Федеральная служба по техническому и экспортному контролю (ФСТЭК) планирует разработать и представить проект стандарта, регулирующего безопасную разработку систем искусственного интеллекта (ИИ). Этот стандарт станет дополнением к существующему стандарту, определяющему безопасную разработку программного обеспечения (ПО). О данном намерении сообщил первый заместитель директора ФСТЭК Виталий Лютиков в рамках форума BIS-2025, подчеркнув, что новый стандарт будет учитывать специфические уязвимости и угрозы, присущие ИИ, в частности, связанные с обработкой больших данных и моделями машинного обучения. По мнению консультанта по безопасности Positive Technologies Алексея Лукацкого, разработка нового стандарта является своевременной, поскольку действующий 117-й приказ ФСТЭК, вступающий в силу с 1 марта 2026 года, лишь обозначает необходимость защиты ИИ, но не предоставляет конкретных практических рекомендаций. Предстоящий стандарт должен охватить вопросы, касающиеся сбора, хра
В Госдуме заявили о рисках неконтролируемого внедрения ИИ и поддержали создание стандарта ФСТЭК
23 сентября 202523 сен 2025
1 мин