Найти в Дзене
РВС

В России искусственный интеллект предлагают взять под контроль и лишить некоторых функций

Оглавление

Комментарий РВС

Предложение юристов можно только поддержать. Однако некоторые специалисты уверены, что проконтролировать сложные саморазвивающиеся системы, работающие с огромными базами данных, не всегда будет возможно. Уже сейчас один из идеологов цифровизации, спецпредставитель президента РФ по цифровому и технологическому развитию Дмитрий Песков открыто говорит о том, что  ИИ - это некий черный ящик, логику принятия решений которого понять будет невозможно и придется только подчиниться этим решениям.

Новость

Некоторые проблемы искусственный интеллект (ИИ) решает не так, как это сделал бы человек.  Работу искусственного интеллекта необходимо поставить под контроль. Об этом заявили в комиссия по правовому обеспечению цифровой экономики московского отделения Ассоциации юристов России ( АЮР). Об этом обращении 12 апреля написали Ведомости.

Деятельность ИИ сейчас не контролируется никакими законами. И это уже плохо сказывается на жизни граждан, считают в АЮР. Организация направила в Совет Федерации, Госдуму, Минцифры, Роскомнадзор обращения с предложением взять ИИ под юридический контроль.

В обращении сказано, что использование ИИ увеличивает риск дискриминации людей. В алгоритмах, используемые в ИИ, встречаются предубеждения, умышленно или нечаянно внесенные  разработчиками. При принятии решений ИИ пользуется некачественными или неполными данными.

А найти ошибки и обжаловать решения машины сейчас очень трудно, потому что сторонних экспертов не допускают к ИИ-системам.

«В сфере госуправления системы алгоритмического принятия решений используются для привлечения к административной ответственности на основе данных видео- или фотофиксации, а также на основе иных технических данных – например, от сотовых операторов, – говорит МО АЮР. – Такого рода системы применялись для привлечения к ответственности весной прошлого года в Москве за нарушение режима самоизоляции. В СМИ фигурировало много курьезных случаев ошибочного привлечения к ответственности, например, парализованных граждан ».

Часто ИИ не позволяет добросовестными гражданам брать кредиты,  принимая решения  на основании неверно интерпретированной информации и сырых алгоритмов. «При решении этого вопроса человеком оно могло бы быть иным» ,  - говорит специалист,  изучавший деятельность крупных компаний, использующих ИИ.

В АЮР предлагают разработать законы и для коммерческих организаций, использующих ИИ. По мнению  Бориса Едидина, зампредседателя комиссии по правовому обеспечению цифровой экономики МО АЮР, в законодательстве предстоит изменить немногое. В частности, можно внести поправки в  закон «О персональных данных»: «В нем можно прописать необходимость оценки ИИ-систем независимыми экспертами, предусмотреть на сайтах госструктур предупреждения о том, что на них используется ИИ, потребовать от внедряющих ИИ-системы предусматривать наличие запасного плана на случай сбоев и иных непредвиденных ситуаций» .

В ведомствах сообщили, что изучают предложения АЮР. А вот в компаниях-разработчиках ИИ предложение юристов комментировать не хотят.

«Разработчики будут сопротивляться определению ИИ как объекта права изо всех сил – ведь в этом случае всю ответственность за его ошибки будут нести они, – говорит руководитель Content-Review Сергей Половников. – А в случае признания такой ответственности неизбежно встанет вопрос о компенсации убытков, связанных с некорректными решениями, принятыми ИИ» .

-2