Найти тему
Не обычное ИТ

Искусственный интеллект. Необходимые защитные механизмы

В настоящее время защита от негативного развития искусственного интеллекта в нашей стране рассматривается в контексте Кодекса этики в сфере искусственного интеллекта. Он содержит целый ряд морально-этических норм, которые можно считать обязательными для разработчиков.

Вместе с тем, развитие технологий и продуктов искусственного интеллекта за последнее время, имеющаяся информация о негативных аспектах внедрения приводит к мысли о необходимости формирования перечня защитных программных модулей, обязательных для реализации в конечном решении. К числу этих модулей можно отнести:

  • модуль блокировки негативного воздействия на человека, в том числе негативного информационного воздействия;
  • модуль блокировки негативного воздействия на инфраструктуру, обеспечивающую жизнедеятельность общества и государства;
  • модуль блокировки действий и настроек, имеющих криминальный характер, в том числе блокировки формирования мошеннических действий;
  • модуль блокировки негативного воздействия на технологические процессы;
  • модуль защиты перехвата управления продуктом/решением ИИ.

Возможно потребуется внедрение и других защитных модулей. Но приведенный выше перечень позволит исключить негативную направленность развития искусственного интеллекта.