Искусственный интеллект произвел революцию в областях от здравоохранения до финансов и транспорта, от беспилотных автомобилей до умных помощников и принятия алгоритмических решений. Однако системы искусственного интеллекта должны использоваться так, чтобы отдавать приоритет человеческим ценностям и потребностям.
Информационный отдел TAVIDENTприводит комментарий д-ра Иеремиаса Франка, инженера по верификации систем безопасности (SOC, Microsoft).
«Технологии искусственного интеллекта и робототехники изменяют жизнь к лучшему, но поднимают серьезные этические вопросы, требующие решения».
- Вопросы предвзятости и справедливости.
Системы искусственного интеллекта разрабатываются, обучаются людьми и могут непреднамеренно перенимать человеческие предубеждения в таких областях, как пол, раса, возраст и неполноценность. Эти системы настолько же беспристрастны, насколько и данные, с помощью которых обучаются. Если данные предвзяты, то и система будет предвзятой.
- Непрозрачность.
Большинство систем искусственного интеллекта непрозрачны — мы не можем легко понять, почему они принимают те или иные решения. Отсутствие прозрачности затрудняет выявление предубеждений, ошибок или неэтичных решений. Мы не можем легко открыть «черный ящик» искусственного интеллекта.
- Вытеснение рабочих мест и неравенство.
В перспективе искусственный интеллект и робототехника создадут новые рабочие места. Но в переходной период замена человеческого труда приведет к потере рабочих мест и экономическим потрясениям.
- Отсутствие объяснения.
Объяснимый искусственный интеллект — это ключ к принятию его пользователями. Некоторые приложения, такие как медицинские диагностические инструменты, требуют, чтобы люди доверяли результатам искусственного интеллекта и полагались на них. Однако, если не будет прозрачности в том, как эти системы принимают решения, пользователи могут не решаться доверять и использовать их.
- Угрозы конфиденциальности.
Искусственный интеллект собирает и генерирует огромные объемы данных. Существует риск, что личная информация будет использоваться способами, которые человек не ожидал или с которыми не соглашался. Данные могут быть использованы не по назначению, переданы или использованы способами, угрожающими конфиденциальности пользователей интеллекта.
- Ответственность.
Поскольку эти системы становятся все более автономными, трудно распределить ответственность, если что-то пойдет не так. Если автомобиль под управлением искусственного интеллекта стал причиной аварии, несет ли ответственность производитель, программист, владелец или искусственный интеллект?
«Этика относится к принципам и ценностям, которые определяют разработку и развертывание систем искусственного интеллекта. Чтобы системы не причиняли вреда ни отдельным лицам, ни обществу».