Найти тему
18 подписчиков

Команда AI Red Team в Microsoft тестирует безопасность систем искусственного интеллекта. Объединяя экспертов по ИИ и кибербезопасности, они анализируют возможные уязвимости и злоупотребления.


Первоначально фокус был на традиционных подходах к безопасности. Но со временем они расширили свою деятельность, чтобы учитывать уникальные риски ИИ, такие как генерация вредоносного контента.
Один из примеров - обнаружение уязвимости в облачном сервисе Microsoft, которая позволяла запускать атаки типа "отказ в обслуживании".

Таким образом, Microsoft активно анализирует риски ИИ перед широким внедрением. Ну, по крайней мере, хочет что бы все так думали.

Команда AI Red Team в Microsoft тестирует безопасность систем искусственного интеллекта. Объединяя экспертов по ИИ и кибербезопасности, они анализируют возможные уязвимости и злоупотребления.
Около минуты