Найти тему
OVERCLOCKERS.RU

АНБ США опубликовало рекомендации по «безопасному развертыванию систем искусственного интеллекта»

По мере того, как волна использования искусственного интеллекта набирает обороты, Агентство национальной безопасности (АНБ), которое также является агентством, отвечающим за кибербезопасность в Соединенных Штатах, в партнерстве с другими агентствами Five Eyes опубликовало рекомендации по кибербезопасности (или CSI) под названием «безопасное развертывание систем искусственного интеллекта: лучшие практики для развертывания безопасных и устойчивых систем искусственного интеллекта».

Как указывается, этот документ предназначен «для владельцев систем национальной безопасности и предприятий оборонно-промышленной сферы, которые будут развертывать и эксплуатировать системы искусственного интеллекта, спроектированные и разработанные внешней организацией».

В этом документе АНБ говорит об искусственном интеллекте для любой системы, основанной на машинном обучении. Документ разъясняет такие базовые положения, как "безопасное развертывание", "безопасная эксплуатация и техническое обслуживание", предлагает соображения по смягчению последствий взаимодействия с искусственным интеллектом (ИИ).

Как указывается в документе, безопасность с помощью искусственного интеллекта - это быстро развивающаяся область исследований. По мере того как агентства, промышленность и научные круги обнаруживают потенциальные недостатки в технологии искусственного интеллекта и методах их использования, организациям необходимо обновлять свои системы безопасности искусственного интеллекта для устранения меняющихся рисков в свете применения традиционных передовых ИТ-практик к системам искусственного интеллекта.

Целями подготовленных рекомендаций являются:

1. Повышение конфиденциальности, целостности и доступности систем искусственного интеллекта;

2. Обеспечение надлежащего устранения известных уязвимостей в области кибербезопасности в системах искусственного интеллекта;

3. Предоставление методологии и средств контроля для защиты, обнаружения и реагирования на вредоносные действия, направленные против систем искусственного интеллекта и связанных с ними данных и сервисов.

Разработчики указанного документа рекомендуют организациям, внедряющим системы искусственного интеллекта, использовать надежные меры безопасности, способные как предотвратить кражу конфиденциальных данных, так и злоупотребление системами искусственного интеллекта. Например, использование параметров глубокой нейронной сети, которые можно изучить и являющихся важным компонентом для защиты.

В документе подчеркивается, что подготовленные рекомендации соответствуют целям обеспечения межотраслевой кибербезопасности (CpG), разработанной CISA и Национальным институтом стандартов и технологий (NIST).