Найти в Дзене
ПравоРоботов

Нужен ли Кодекс этики Искусственному Интеллекту?

Ознакомившись с содержанием проекта Кодекса этики ИИ, укрупненно, можно выделить один ключевой тезис, который в него заложили его авторы, и этот тезис скорее всего известен каждому, который можно охарактеризовать как "за все хорошее и против всего плохого". Собственно, именно на этом основном подходе и построен весь документ. Но другой концепции в данный момент и быть не может - для того чтобы что-то регламентировать, надо это что-то построить, а учитывая, что технология ИИ только формируется, то каким-то образом регламентировать и регулировать ее будет возможно только после ее условной каталогизации, когда будет понятно, какой тип ИИ в какой отрасли можно разрабатывать, что ИИ сможет сделать (позитивное и негативное влияние), и с чем может столкнуться человек в рамках такого применения ИИ. Следовательно, если мы хотим, чтобы данный документ начал работать – нужно сначала построить то что он должен регламентировать, а не наоборот. Однако, учитывая, что проект «Кодекса этики ИИ» разраба

Ознакомившись с содержанием проекта Кодекса этики ИИ, укрупненно, можно выделить один ключевой тезис, который в него заложили его авторы, и этот тезис скорее всего известен каждому, который можно охарактеризовать как "за все хорошее и против всего плохого". Собственно, именно на этом основном подходе и построен весь документ. Но другой концепции в данный момент и быть не может - для того чтобы что-то регламентировать, надо это что-то построить, а учитывая, что технология ИИ только формируется, то каким-то образом регламентировать и регулировать ее будет возможно только после ее условной каталогизации, когда будет понятно, какой тип ИИ в какой отрасли можно разрабатывать, что ИИ сможет сделать (позитивное и негативное влияние), и с чем может столкнуться человек в рамках такого применения ИИ. Следовательно, если мы хотим, чтобы данный документ начал работать – нужно сначала построить то что он должен регламентировать, а не наоборот.

Однако, учитывая, что проект «Кодекса этики ИИ» разрабатывается в рамках утвержденной Президентом РФ Национальной стратегии развития искусственного интеллекта до 2030 г., о чем постоянно напоминают авторы Кодекса, можно сделать выводы что он в любом случае будет принят, и, что также вполне возможно, практически в любом виде, ведь это фактически ни на что не повлияет учитывая его рекомендательный характер. А что бывает с Кодексами, которые носят «рекомендательный» характер, можно проследить на примере «Кодекса этики использования Данных», который долгое время разрабатывался, был подписан ключевыми компаниями в рамках Недели российского интернета (RIW 2019), но после этого никакого упоминания о его использовании не последовало.

Ну а если вернуться к замечаниям к проекту Кодекса этики ИИ, то вот как мне кажется ключевые его недоработки и предложения что можно с этим сделать:

1. Следует уйти от наименования «Кодекс», учитывая, что рассматриваемый документ не соответствует понятию «Кодекс» ни по форме, ни по содержанию, ни по сфере действию. Возможные варианты обозначения: Хартия, Свод правил, (число ключевых тезисов или глав) законов ИИ (по аналогии с «3 закона робототехники» Азимова)

2. Убрать терминологию «Акторы» как не соответствующую российской правовой мысли и заменить его на российский юридический аналог. Данный подход приемлем для перевода иностранных текстов, но не для написания юридически значимых текстов.

3. Вводя новую терминологию «Системы Искусственного Интеллекта» или СИИ вместо привычного ИИ, авторы кодекса вводят новую терминологию, которая по логике своего написания может и должна подразделяться на уровни, при этом никаких уровней интеллектуальности и критериев после которого некая интеллектуальная программа становится СИИ в документе не предложено. Это в дальнейшем повлечет необходимость уточнения самой терминологии, вследствие чего может измениться сама концепция документа.

-2

4. Указание «недискриминации» не совсем корректно, учитывая, что все системы так или иначе разделяют попавшую к ним на обработку информацию по схожим критериям, тем самым каталогизируя ее. И эти критерии могут быть абсолютно любыми, в том числе и по национальному иди расовому принципу, месту проживания и т.д.

5. Данный Свод правил и принципов никак не пытается регулировать системы ИИ, применяемые в военном или ином направлении, связанном с причинением тяжкого вреда здоровью человека. В данном смысле видна нелогичность подхода.

6. Пункт 17 и «уважать автономию воли человека». В данном случае это противоречит существованию в настоящий момент «рекомендательных сервисов» (например, Дзен от Яндекс), которые самостоятельно подбирают ленту пользователя исходя из понимания его предпочтений. Второй пример – это выписывание штрафов за нарушение ПДД с камер наблюдения в автоматическом режиме, исходя из принципа наличия правонарушения. Как минимум 2 вышеуказанных действующих подхода противоречат пункту 17 по смыслу.

7. Если это является переводом иностранной концепции (которых уже принято достаточное количество, в том числе и в ЕС), то принятие такого рода документов имеет свой порядок и форму. Если это новый документ, который в частях может противоречить мировому курсу – то тогда возникает вопрос о его целесообразности, если все системы так или иначе будут конкурировать за пользователей на международном рынке и взаимодействовать с пользователями. Ключевой подход для понимания возможных дальнейших действий заключается в том, что цифровая среда глобальна а не региональна, и должна скорее всего совпадать и двигаться «в одном направлении».

8. Есть риск что, учитывая стадию создания ИИ (мы находимся в самом начале), данный документ может быть сдерживающим фактором, тем самым тормозить российскую науку и российские компании.

-3

Ну а в целом, следует определиться со статусом документа. Если он все же будет носить исключительно рекомендательный характер, то его ценность будет крайне низкой, ведь все мы понимаем, что если это не прямая регламентирующая норма, а только рекомендация, говорить о каком бы то ни было влиянии на отрасль не приходится