Добавить в корзинуПозвонить
Найти в Дзене
Наталья Касперская

Почему мы не можем молчать о регулировании ИИ

В конце марта состоялось очередное заседание Общественного совета при Минцифры России, и это тот случай, когда и про дискуссию, и про Общественный Совет хочется рассказать подробнее. Тем более, что здесь я про это еще не писала. Общественный совет — это подразделение Общественной палаты РФ, которое работает по конкретному направлению при конкретном ведомстве. Наш Совет занимается защитой граждан и бизнеса в вопросах, которые входят в зону ответственности Минцифры России. Общественный совет при Минцифры разделен на несколько комиссий: медиа, коммуникации, ИТ и другие. Мне доверили возглавить комиссию по защите интересов ИТ-отрасли. Работаем так: собираем запросы из отрасли и от граждан, обсуждаем, и если считаем нужным — выносим на решение всего Совета. В комиссию входят не только члены Общественного совета, но и приглашенные эксперты из отрасли. На мартовском заседании я представляла тему регулирования искусственного интеллекта. Наша комиссия ее предварительно обсудила и вынесла на ре

В конце марта состоялось очередное заседание Общественного совета при Минцифры России, и это тот случай, когда и про дискуссию, и про Общественный Совет хочется рассказать подробнее. Тем более, что здесь я про это еще не писала.

Почему мы не можем молчать о регулировании ИИ
Почему мы не можем молчать о регулировании ИИ

Общественный совет — это подразделение Общественной палаты РФ, которое работает по конкретному направлению при конкретном ведомстве. Наш Совет занимается защитой граждан и бизнеса в вопросах, которые входят в зону ответственности Минцифры России.

Общественный совет при Минцифры разделен на несколько комиссий: медиа, коммуникации, ИТ и другие. Мне доверили возглавить комиссию по защите интересов ИТ-отрасли. Работаем так: собираем запросы из отрасли и от граждан, обсуждаем, и если считаем нужным — выносим на решение всего Совета. В комиссию входят не только члены Общественного совета, но и приглашенные эксперты из отрасли.

На мартовском заседании я представляла тему регулирования искусственного интеллекта. Наша комиссия ее предварительно обсудила и вынесла на решение Общественного совета. Тема бурно обсуждается, и оставаться в стороне мы не могли.

Я рассказала следующее:

Первое — регулирование ИИ назрело.Процесс внедрения идет чрезвычайно быстро, и грозные предвестники больших проблем уже видны. Но заниматься надо не ограничением самих технологий, чтобы не тормозить процесс их развития, а ограничением их опасных использований. Особенно в критичных сферах, связанных с людьми: образование, медицина, социальная сфера, законодательство, госуправление.

Второе — социальные и гуманитарные риски.Они заслуживают отдельного внимания. Это фальсификации и мошенничества, потеря рабочих мест, социальная напряженность, ошибочные автономные решения ИИ в отношении граждан. Юридически значимые решения, принятые «черным ящиком», — уже не фантастика, а прямая угроза.

Третье — ИИ в образовании.Это сейчас никак не регулируется. По данным ведущих вузов страны, до 90% студенческих работ генерируются нейросетями. То есть фальсифицируются. Процесс обучения подменяется формальной отчетностью. Преподаватели уже не могут проверить реальные знания студентов и не понимают, кого они выпускают. А работодатели не понимают, кого нанимают. Неизвестно, что знают эти люди с дипломами, кроме умения «давать мощные промты». Риски быстрой деградации среднего и высшего образования — не преувеличение.

Что мы предложили:

Во-первых, представители Общественного совета должны участвовать в обсуждении законопроекта о регулировании ИИ. Само обсуждение должно быть максимально широким — тема касается почти всех.

Во-вторых, необходимо отдельно учесть риски для социальной и гуманитарной сферы, госуправления и образования.

Алексей Гореславский, руководитель Общественного совета, наши предложения поддержал. Он заметил, что сейчас любая дискуссия об ИИ скатывается к обсуждению ужасающих последствий его использоования, и все это отвлекает от рольной работы, времени на которую крайне мало.

Алексей Гореславский предложил еще два вопроса: о маркировке произведений, созданных ИИ, и о праве на контент, сгенерированный ИИ.

Маркировка произведений — отдельная тема, а тема правовых аспектов неоднозначна. Так, кто должен обладать интеллектуальными правами на созданное с помощью ИИ произведение? Тот, кто написал промт? Разработчик ИИ-системы? Автор первоначального контента, на базе которого всё сгенерировано? Или, может, сама ИИ-система? Да, такой вариант тоже всерьез обсуждается.

Лично я вопрос прав на созданный с помощью ИИ контент не считаю сейчас актуальным.

Авторское право у нас подробно расписано в соответствующем законе. Вторгаться в эту сферу в законе об ИИ — слишком сложно и рискованно. А вот наделять «ИИ-нежить» правами, как у человека, — недопустимо и довольно нелепо. ИИ не может нести ответственность, а это ключевой фундамент любого права. Нет ответственности — нет права.

С другой стороны, проблема использования ИИ в образовании — очень острая. В заседании участвовал заместитель министра образования и науки Дмитрий Афанасьев. Он сообщил, что сейчас разрабатывается стратегия российского образования на следующие 10 лет. В ней планируют учесть риск фальсификации при помощи ИИ. Дмитрий Афанасьев пригласил нас поучаствовать в этой работе — чтобы что-то скорректировать, пока не поздно.

Работаем дальше. Тема слишком серьезная, чтобы отмалчиваться.