Найти в Дзене
Твоя польза

Вопросы, касающиеся конкретных секторов в разработке ИИ

Оглавление

ИИ оказывает значительное влияние на многие секторы нашего общества и экономики (например, прогностическая полиция, правосудие, точная медицина, маркетинг, политическая пропаганда).

https://www.pinterest.ru/pin/251920172890447690/
https://www.pinterest.ru/pin/251920172890447690/

Применение искусственного интеллекта в конкретных секторах сопряжено с различными проблемами и не может быть надлежащим образом рассмотрено на моем канале, в котором представлен общий обзор основных вопросов, касающихся взаимосвязи между защитой данных и искусственным интеллектом. Поэтому в этой статье кратко освещаются только две основные области: государственный сектор и рабочее место.

Применение искусственного интеллекта вызывает ряд конкретных вопросов при использовании в государственном секторе, в основном из-за дисбаланса власти между гражданами и администрацией и предоставляемыми основными услугами. Более того, принятие правительствами и их ведомствами сложных и неясных решений в области искусственного интеллекта усложняет выполнение ими своих обязательств по отчетности, а не только в отношении обработки данных.

Такое положение дел, как представляется, требует принятия более жестких гарантий, выходящих за рамки компетенции специальных комитетов или ревизионных органов.

Гарантии должны также предусматривать процесс оценки, позволяющий критически оценить необходимость предлагаемых решений в области искусственного интеллекта и их пригодность для оказания услуг государственными учреждениями или частными компаниями, действующими от их имени. Этот процесс требует, чтобы "как минимум они были доступны для публичного аудита, тестирования, проверки и обзора и соответствовали стандартам подотчетности".

Для достижения этой цели, процедуры публичных закупок могут налагать особые обязанности по обеспечению прозрачности и предварительной оценки на поставщиков услуг по ИИ. Кроме того, процедуры закупок могут также затрагивать вопросы, касающиеся коммерческой тайны и охраны ИИ, предусматривая конкретные договорные исключения в целях повышения прозрачности и обеспечения возможности проведения аудита ИИ.

Что касается влияния искусственного интеллекта на будущее работы, то, если не принимать во внимание его воздействие на рынок труда, решения в области искусственного интеллекта могут влиять на отношения на рабочем месте. Кроме того, использование скрытых и нерегулируемых форм обработки данных может трансформировать рабочее место в социальный эксперимент in vivo, что ставит дополнительные важные вопросы о роли прозрачности, комитетов по этике и добровольного участия в обработке данных.

https://www.pinterest.ru/pin/31595634866477854/
https://www.pinterest.ru/pin/31595634866477854/

Наконец, устройства, предоставляемые наемным работникам работодателями, могут иметь двойное назначение.

Например, на рабочем месте можно носить носимые оздоровительные устройства для сбора биологических данных, предназначенных для сохранения здоровья работника, а также использовать их вне работы для отслеживания состояния его спортивной формы. Если последствия для защиты данных и личной свободы не будут должным образом изучены, такое двойное использование может стирать границы между работой и частной жизнью, поднимая вопросы повсеместного контроля и права на отключение.

Ответственность и бдительность

Ответственность в связи с применением искусственного интеллекта остается открытым вопросом по различным причинам.

Как и в отношении ответственности за продукцию, принципы которой, ориентированные на управление рисками и неопределенность, могут быть широко распространены на ИИ, существует ряд применимых моделей регулирования (строгая ответственность, ответственность по вине и т.д.) и стратегий (государственное вмешательство, обязательное страхование и т.д.).

Одним из ценных решений является распространение логики ответственности за продукцию на алгоритмы, передающие всю ответственность производителю.

https://www.pinterest.ru/pin/342132902925901906/
https://www.pinterest.ru/pin/342132902925901906/

Это представляется более действенным, чем альтернатива специалисту по защите данных для алгоритмов, где широкое распространение приложений по ИИ, различные вовлеченные стороны и роль пользователя затрудняют разобщение различных аспектов ответственности ИИ.

Кроме того, ответственность служит своего рода заключительным правилом для системы, что особенно ценно, когда различные предварительные меры (такие как прозрачность) не работают. Тем не менее, стоит отметить, что управление рисками, прозрачность и ответственность могут быть объединены не только на стадии разработки приложений ИИ, но и на следующем этапе, когда используются алгоритмы.

Это может заставить надзорные органы и контролеров данных принять формы бдительности алгоритмов, аналогичные фармаконадзору, чтобы быстро реагировать в случае неожиданных и опасных последствий.