Кодекс этики в сфере искусственного интеллекта (ИИ), принятый в России в 2021 г., вступает в противоречие с потребностями рынка информационной безопасности. Об этом заявил руководитель R&D лаборатории Центра технологий кибербезопасности ГК "Солар" Максим Бузинов на заседании комиссии по бизнес-этике Ассоциации менеджеров.
Ирина Приборкина
© ComNews
28.08.2024
Кодекс этики в сфере ИИ был принят в октябре 2021 г. Авторами документа стали Альянс в сфере искусственного интеллекта, Аналитический центр при правительстве РФ и Минэкономразвития.
Выступая 27 августа 2024 г. на мероприятии Ассоциации менеджеров, посвященном вопросам этики при использовании ИИ, Максим Бузинов отметил, что Кодекс имеет конструктивное содержание, но лишь общего характера – а в силу специфики использования ИИ в разных сферах этого недостаточно. По его словам, положения Кодекса в некоторых случаях не соотносятся с потребностями сферы информационной безопасности (ИБ).
"Один из примеров – работа с персональными данными с помощью ИИ. Она должна регулироваться в отдельных сферах по-разному. Так, для медицинских учреждений данные должны быть обезличены и более закрыты. А для нас, сотрудников сферы ИБ, необходимо собирать личные данные для анализа инцидентов. Например, сведения о переписке сотрудников на корпоративных устройствах. Пример из опыта "Солар" – у нас есть модель предсказания увольнения и выгорания сотрудников. Для ее реализации необходима определенная, личная и подробная информация о сотрудниках и их поведении, что вступает в полемику с рядом рекомендаций Кодекса, принятого в 2021 году", – объяснил точку зрения Максим Бузинов.