Найти в Дзене

Этика в сфере искусственного интеллекта: кому нужны здесь правила?

Сегодня проблематикой этики в ИИ заинтересованы разработчики, заказчики, пользователи, государственные структуры, научное сообщество и, безусловно, специалисты по этике. Мой интерес к этике искусственного интеллекта начался два года назад. В 2022 году я приняла участие в первой в России школе этики в искусственном интеллекте, проходившей в Иннополисе, а в текущем году стала участником международной конференции, посвященной данной теме. Знаковым событием стал Форум по этике в сфере искусственного интеллекта «Поколение GPT: Красные линии», прошедший в Москве 16 ноября 2023 года. Форум стал площадкой для обсуждения лучших практик применения этических принципов в сфере ИИ и вопросов совершенствования этических норм. Автор: Елена Галиуллина — член Высшего экспертного совета кафедры «Современный этикет» Академии социальных технологий, кандидат экономических наук, психолог, преподаватель высшей школы, эксперт по современному практическому этикету. В 1865 году в Великобритании, на заре автомоб
Оглавление

Сегодня проблематикой этики в ИИ заинтересованы разработчики, заказчики, пользователи, государственные структуры, научное сообщество и, безусловно, специалисты по этике.

Мой интерес к этике искусственного интеллекта начался два года назад. В 2022 году я приняла участие в первой в России школе этики в искусственном интеллекте, проходившей в Иннополисе, а в текущем году стала участником международной конференции, посвященной данной теме.

Знаковым событием стал Форум по этике в сфере искусственного интеллекта «Поколение GPT: Красные линии», прошедший в Москве 16 ноября 2023 года. Форум стал площадкой для обсуждения лучших практик применения этических принципов в сфере ИИ и вопросов совершенствования этических норм.

Автор: Елена Галиуллина — член Высшего экспертного совета кафедры «Современный этикет» Академии социальных технологий, кандидат экономических наук, психолог, преподаватель высшей школы, эксперт по современному практическому этикету.

Исторические параллели: уроки «Закона о Красном флаге»

В 1865 году в Великобритании, на заре автомобильной эры, был принят так называемый «Закон о Красном флаге». Этот закон вводил жесткие ограничения скорости движения автомобилей. В то время подобные меры были необходимы, поскольку общество испытывало страх перед новым изобретением — автомобилем, не понимая, как его воспринимать и как с ним сосуществовать.

Сегодня аналогичная ситуация наблюдается в сфере искусственного интеллекта. Технологическое развитие стремительно, однако адекватная правовая и этическая база для регулирования только формируется. Тем не менее, исторический опыт подсказывает, что прогресса не стоит опасаться. Нет ничего страшного в том, что изобретение изобретено, а закона еще нет.

История автомобилизации подтверждает эту мысль. Первые светофоры в России появились лишь в 1929 году, а полноценные правила дорожного движения — еще позже. Общество постепенно адаптировалось к новым реалиям, и законодательство следовало за развитием технологий.

Международные рекомендации и российские инициативы

В 2021 году мировое сообщество сделало важный шаг в направлении этического регулирования ИИ. 193 страны, включая Россию, приняли участие в разработке рекомендаций ЮНЕСКО по этике искусственного интеллекта.

На сегодняшний день уже 10 государств опубликовали национальные принципы этики в сфере искусственного интеллекта.

В России также ведется активная работа в этом направлении. Крупнейшие российские компании, такие как Сбер и Яндекс, уже разработали и опубликовали свои корпоративные принципы этики в сфере ИИ. К этой инициативе присоединяются и другие частные компании, а также некоммерческие организации.

Знаковым событием стало принятие в России в 2021 году Кодекса этики в сфере искусственного интеллекта.

Кодекс основывается на 6 ключевых принципах:

  1. Приоритет развития технологий должен заключаться в защите прав и интересов человека.
  2. Создатели и пользователи искусственного интеллекта должны осознавать свою ответственность.
  3. Ответственность за применение ИИ всегда несет человек.
  4. Технологии искусственного интеллекта необходимо применять по назначению, ответственно и этично.
  5. Интересы развития технологий искусственного интеллекта должны быть выше интересов конкуренции.

Важно отметить, что на данный момент Кодекс этики носит рекомендательный характер и не является законом. Присоединение к нему — добровольный выбор каждой компании.

Тем не менее, Кодекс играет важную роль в формировании конструктивных взаимоотношений между людьми и организациями в контексте развития искусственного интеллекта.

Кодекс адресован широкому кругу субъектов:

  • Государству
  • Научному сообществу
  • Разработчикам ИИ
  • Бизнесу
  • Пользователям технологий ИИ

Примечательно, что в 2022 году впервые был поднят вопрос об этике пользователя искусственного интеллекта, что подчеркивает двусторонний характер ответственности в этой сфере.

Главная задача Кодекса — минимизировать риски неэтичного использования искусственного интеллекта, способного нарушить права и законные интересы человека.

Практические примеры этических проблем

Этические проблемы, связанные с использованием искусственного интеллекта, — это не гипотетическая возможность, а уже существующая реальность. Один из известных примеров — скандал вокруг компании Amazon.

Выяснилось, что алгоритмы искусственного интеллекта, применяемые компанией, дискриминировали пациентов, нуждающихся в дополнительной медицинской помощи. Решение о выделении помощи принималось на основе анализа материального положения пациентов, что является прямым нарушением этических норм и принципов справедливости.

Другой показательный пример — эксперимент в одном из университетов, где искусственный интеллект на протяжении полугода вел общение со студентами, которые не были осведомлены о том, что взаимодействуют не с человеком.

Подобных примеров, к сожалению, становится все больше, и многие из них демонстрируют явное пренебрежение этическими нормами.

Разработка и внедрение Кодекса этики

Кодекс этики в сфере искусственного интеллекта стал результатом коллективной работы ведущих технологических компаний, общественных институтов и научного сообщества.

В разработке Кодекса принимали участие:

  • Общественная палата Российской Федерации
  • Совет Федерации
  • АНО «Цифровая экономика»
  • Аналитический центр при Правительстве Российской Федерации

Первыми Кодекс подписали 17 организаций, в том числе Сбербанк, Яндекс, ВК, МТС, Ростелеком. На сегодняшний день число подписантов выросло до 247.

Важно отметить, что к Кодексу присоединяются не только государственные и крупные корпорации, но и частные образовательные учреждения, что свидетельствует о широком распространении и признании важности этических принципов в сфере ИИ.

Для координации работы в сфере этического регулирования ИИ создана Комиссия по этике в сфере искусственного интеллекта, а также сформированы рабочие группы по отдельным направлениям применения ИИ, таким как здравоохранение, образование, культура, промышленность и финансы.

Для практической реализации Кодекса этики на уровне организаций рекомендуется создание комиссий по этике в сфере искусственного интеллекта или введение должности уполномоченного по этике, ответственного за соблюдение этических норм.

Разработаны типовые положения о внутреннем комитете по этике и об уполномоченном по этике, которые могут служить ориентиром для компаний, стремящихся внедрить принципы Кодекса в свою деятельность.

Ключевые этические принципы и ценности

В основу функционирования искусственного интеллекта заложен ряд важнейших этических принципов и ценностей:

  • Социальные принципы: уважение автономии человека, равенство прав и возможностей, социальная и правовая справедливость, недопустимость дискриминации, особое внимание к уязвимым группам населения.
  • Экологические принципы: ИИ не должен наносить вред окружающей среде.
  • Правовые принципы: ИИ должен функционировать в строгом соответствии с законом, обеспечивать неприкосновенность частной жизни, гарантировать доступность и открытость информации.

Не менее значимы принципы, которыми должен руководствоваться пользователь искусственного интеллекта:

  • Пользователь обязан четко следовать инструкциям и рекомендациям разработчика.
  • Пользователь несет ответственность за корректность и этичность своих запросов к ИИ.
  • Пользователь должен критически оценивать информацию, полученную от ИИ, и помнить о возможности ее некорректности или устаревания.
  • Пользователь не должен допускать использование ИИ для унижения, дискриминации или оскорбления других людей.

Белая книга лучших практик

Для обобщения опыта и распространения лучших практик в сфере этичного использования ИИ создана и постоянно пополняется «Белая книга», содержащая описание лучших практик добросовестного использования данных и реальные кейсы применения искусственного интеллекта в различных областях.

Белая книга — динамичный документ, который регулярно обновляется и открыт для разработчиков, пользователей и заказчиков технологий ИИ. Она призвана содействовать:

  • Разработчикам — в создании более совершенных и этически выверенных программ, основываясь на накопленном опыте и предыдущих ошибках.
  • Пользователям — в получении более надежного и безопасного продукта.
  • Заказчикам — в более четком понимании этических аспектов, которые необходимо учитывать при формировании технического задания на разработку систем ИИ.

Заключение

Прогнозировать полную картину трансформаций, которые принесет обществу дальнейшее развитие искусственного интеллекта, пока невозможно. Однако, следование этическим принципам служит ориентиром, позволяющим человечеству найти верный путь к новому цифровому будущему и избежать потенциальных опасностей.

Не следует опасаться искусственного интеллекта. Необходимо научиться грамотно и ответственно его использовать, руководствуясь этическими нормами и осознавая возможные последствия.

Искусственный интеллект — не угроза культуре, а мощный инструмент культурного развития, способный обогатить человеческую цивилизацию при условии грамотного и этичного применения.

Границы применения искусственного интеллекта должны быть четко определены на основе широкого общественного диалога и экспертных дискуссий, чтобы исключить злоупотребления и обеспечить защиту прав и свобод человека в цифровую эпоху.

В данном процессе активное участие необходимо всем — государству, бизнесу, научному сообществу и гражданскому обществу — для совместной выработки этических норм использования искусственного интеллекта, которыми человечество будет руководствоваться в ближайшие десятилетия.

Этика
7343 интересуются