Американские ученые создали общедоступный репозиторий рисков ИИ. Это первая попытка тщательного сбора, анализа и классификации рисков. База данных может использоваться для различных целей: введение новых специалистов по работе с рисками, связанными с ИИ, создание фундамента для сложных проектов. Она также поможет выявить недооцененные области изучения ИИ.
Исследователи Массачусетского технологического института (MIT) в августе 2024 года завершили разработку «Репозитория рисков ИИ».
Документ представляет собой систематизированный обзор существующих рисков ИИ, условий и причин их возникновения, и является важным инструментом для исследователей, политиков, аудиторских компаний и разработчиков, стремящихся лучше понять и управлять разнообразными угрозами, которые могут исходить от ИИ-систем.
База данных будет регулярно обновляться по мере появления новых угроз.
Сейчас она содержит более 700 рисков, которые разделены на 7 типов:
- дискриминация и токсичность;
- конфиденциальность и безопасность;
- дезинформация;
- злоумышленники и злоупотребления;
- взаимодействие человека и компьютера;
- социально-экономический и экологический ущерб;
- безопасность, недостатки и ограничения систем ИИ.
Исследователи отмечают, что большинство рисков, связанных с ИИ (51%), возникают в результате работы самих систем, а не действий человека (34%). При этом 65% рисков появляются после того, как ИИ-модель уже обучена и развернута, и лишь 10% – до этого.
Разработчики классификатора обнаружили, что профессиональное сообщество наиболее часто в аналогичных документах обсуждает риски, связанные с безопасностью, отказами и ограничениями ИИ-систем (76%), социально-экономическим и экологическим ущербом (73%), а также дискриминацией и токсичностью (71%). Меньше внимания уделяется взаимодействию человека с компьютером (41%) и дезинформации (44%).
Репозиторий рисков ИИ, о котором мы говорим, включает 23 подкатегории. Причем исследователи отмечают, что ранее при попытках классификации упоминались всего 16 из них в рамках одного документа. Наиболее часто обсуждаются такие подкатегории, как несправедливая дискриминация (8%), стремление ИИ к целям, противоречащим человеческим, и неустойчивость (9%). В то же время, некоторые подкатегории, например, права и благополучие ИИ (<1%) и загрязнение информационной среды (1%), остаются относительно малоизученными.
Политики могут использовать базу данных для разработки нормативных актов и общих стандартов, аудиторы – для создания стандартов и проведения аудитов ИИ-систем, а исследователи – для выявления пробелов в изучении и разработки научных и образовательных программ. Представители индустрии могут применять базу данных для внутренней оценки и подготовки к рискам, разработки стратегии, а также для обучения и подготовки кадров.
Больше статей: