В ноябре 2024 года началась разработка законопроекта, целью которого декларируется регулирование сферы искусственного интеллекта (ИИ) в России. Инициатива возникла после обсуждений между депутатом Госдумы Антоном Ткачевым, сообществом "Сеть" и "Деловой Россией". Для разработки документа была создана экспертная рабочая группа, включающая представителей крупных российских банков, IT-компаний, вузов и др. Ключевые положения текущей версии законопроекта включают:
- Обязательная маркировка систем ИИ и их результатов: Пользователи должны быть явно проинформированы о взаимодействии с ИИ. Однако, разработка конкретных правил маркировки возложена на самих операторов систем.
- Распределение ответственности: Законопроект предусматривает возмещение вреда, причиненного при использовании систем ИИ, "с учетом особенностей функционирования системы и степени проявленной осмотрительности".
- Определения ключевых понятий: Документ дает определения ИИ, технологий ИИ, систем ИИ, генеративного ИИ, а также ролей разработчиков, операторов и пользователей.
- Интеллектуальная собственность: Законопроект разграничивает результаты, созданные с помощью генеративного ИИ, и результаты с существенным личным вкладом человека. Имущественное право на результат, автоматически созданный генеративным ИИ, принадлежит оператору системы сроком на 10 лет.
- Отказ от классификации по уровню риска: Изначально предлагавшаяся классификация систем ИИ по уровню риска была отклонена в пользу более "рамочного" подхода.
Хотя законопроект стремится к балансу между стимулированием инноваций и обеспечением безопасности, ряд его положений вызывает серьезные вопросы и опасения. Далее представлен подробный критический анализ инициативы. Как подчеркнул Илон Маск, "искусственный интеллект — это фундаментальный риск для существования человеческой цивилизации", поэтому важно тщательно продумать все аспекты регулирования.
1. Недостаточная конкретика в вопросе маркировки: Требование обязательной маркировки систем ИИ и результатов их использования звучит разумно, но отсутствие четких правил маркировки вызывает беспокойство. Как отметил Билл Гейтс, говоря о начальных этапах внедрения ИИ, "сначала машины будут выполнять за нас большую часть работы, и это не будет суперинтеллектом". Именно поэтому важно уже сейчас заложить прозрачные механизмы взаимодействия с ИИ. Перекладывание ответственности за разработку правил маркировки на самих операторов систем ИИ может привести к неразберихе и неэффективности меры. Необходимы единые стандарты маркировки, обеспечивающие прозрачность и понятность для пользователей.
2. Размытая формулировка ответственности: Формулировка об ответственности за вред, причиненный системами ИИ, слишком общая и не дает четкого понимания, как будет определяться степень "проявленной осмотрительности". Это может привести к субъективным толкованиям и сложностям в применении на практике. Необходимо более четко прописать критерии ответственности разработчиков и операторов систем ИИ.
3. Ограничение срока действия прав на результаты генеративного ИИ: Ограничение срока действия имущественных прав на результаты, созданные генеративным ИИ, 10 годами выглядит необоснованным и может затормозить развитие этой перспективной области. 50 лет, предлагавшиеся ранее, кажутся более адекватным сроком, сопоставимым со сроком охраны авторских прав для произведений, созданных человеком.
4. Отказ от классификации систем ИИ по уровню риска: Отказ от классификации систем ИИ по уровню риска – ошибочное решение. Рамочный закон, не учитывающий различия в потенциальной опасности различных систем ИИ, не сможет эффективно обеспечить безопасность. Как подчеркнул Илон Маск, "искусственный интеллект — это фундаментальный риск для существования человеческой цивилизации". Необходима гибкая система регулирования, учитывающая специфику и уровень риска каждой категории систем ИИ.
5. Состав рабочей группы: Состав рабочей группы, в которой преобладают представители бизнеса, вызывает опасения относительно объективности разрабатываемого законопроекта. Необходимо более широкое представительство экспертов из различных областей, включая правозащитников и представителей академического сообщества.
6. Отсутствие публичного обсуждения: Недостаточное публичное обсуждение законопроекта – еще один негативный фактор. Широкое обсуждение с участием всех заинтересованных сторон необходимо для выработки сбалансированного и эффективтивного законодательства. В контексте развития ИИ актуально предупреждение Стивена Хокинга: "Развитие полноценного искусственного интеллекта может означать конец человеческой расы".
В целом, предлагаемый законопроект требует серьезной доработки. Необходимо усилить конкретику в вопросах маркировки и ответственности, пересмотреть ограничения на срок действия прав на результаты генеративного ИИ, ввести классификацию систем ИИ по уровню риска и обеспечить более широкое публичное обсуждение. Только так можно создать законодательство, способствующее безопасному и эффективному развитию ИИ в интересах общества.