По мере того, как волна использования искусственного интеллекта набирает обороты, Агентство национальной безопасности (АНБ), которое также является агентством, отвечающим за кибербезопасность в Соединенных Штатах, в партнерстве с другими агентствами Five Eyes опубликовало рекомендации по кибербезопасности (или CSI) под названием «безопасное развертывание систем искусственного интеллекта: лучшие практики для развертывания безопасных и устойчивых систем искусственного интеллекта».
Как указывается, этот документ предназначен «для владельцев систем национальной безопасности и предприятий оборонно-промышленной сферы, которые будут развертывать и эксплуатировать системы искусственного интеллекта, спроектированные и разработанные внешней организацией».
В этом документе АНБ говорит об искусственном интеллекте для любой системы, основанной на машинном обучении. Документ разъясняет такие базовые положения, как "безопасное развертывание", "безопасная эксплуатация и техническое обслуживание", предлагает соображения по смягчению последствий взаимодействия с искусственным интеллектом (ИИ).
Как указывается в документе, безопасность с помощью искусственного интеллекта - это быстро развивающаяся область исследований. По мере того как агентства, промышленность и научные круги обнаруживают потенциальные недостатки в технологии искусственного интеллекта и методах их использования, организациям необходимо обновлять свои системы безопасности искусственного интеллекта для устранения меняющихся рисков в свете применения традиционных передовых ИТ-практик к системам искусственного интеллекта.
Целями подготовленных рекомендаций являются:
1. Повышение конфиденциальности, целостности и доступности систем искусственного интеллекта;
2. Обеспечение надлежащего устранения известных уязвимостей в области кибербезопасности в системах искусственного интеллекта;
3. Предоставление методологии и средств контроля для защиты, обнаружения и реагирования на вредоносные действия, направленные против систем искусственного интеллекта и связанных с ними данных и сервисов.
Разработчики указанного документа рекомендуют организациям, внедряющим системы искусственного интеллекта, использовать надежные меры безопасности, способные как предотвратить кражу конфиденциальных данных, так и злоупотребление системами искусственного интеллекта. Например, использование параметров глубокой нейронной сети, которые можно изучить и являющихся важным компонентом для защиты.
В документе подчеркивается, что подготовленные рекомендации соответствуют целям обеспечения межотраслевой кибербезопасности (CpG), разработанной CISA и Национальным институтом стандартов и технологий (NIST).