Запросили комментарий для ИД КоммерсантЪ по поводу судебных коллизий и искусственного интеллекта. Статья с мнением экспертов вот:
Вопросы такие:
На фоне активного использования нейросети есть ли какие-то риски , что можно натолкнуться на судебное разбирательство? Может ли работа с нейросетями подвести под суд? Есть ли такие кейсы? Что нужно учитывать работникам и руководству при работе с нейросетями, чтобы не попасть под иск?
Ответ:
У нас не развита практика судебных разбирательств и нет прецедентного права. Отсюда нет судебных дел, связанных с нарушением законодательства при использовании ИИ, так как в России не существует такого административного и уголовного законодательства как класса. То есть, российская судебная система пока не сталкивается с подобными делами. Но ушлые юристы и юридические дельцы в США, например, уже давно пробуют на прочность американскую систему прецедентного права. Надо отметить, что там есть более чем вековой пласт бизнес-активности, связанной с выдумыванием и отсуживанием значительных сумм денег по любому поводу: от жидкой Пепси-Колы до высоких порожков в Макдональдсе.
Что касается прецедентов, то, например, фотоагентство Getty Images обвинило фирму Stability AI в нелицензионном использовании более 12 миллионов своих фотографий для обучения системы генерации Stable Diffusion AI. Производитель нейрочипов Nvidia Corp. обвинялась в том, что Nvidia Corp. использовала более 196 тысяч книг для обучения своей платформы NeMo AI без разрешения правообладателей. В результате судебного разбирательства платформа NeMo была заблокирована. Газета New York Times обвинила OpenAI и Microsoft, в том, что миллионы статей, защищенных авторским правом, были неправомерно использованы для обучения языковых моделей. И количество подобных дел перевалило уже за сотни.
Главная проблема, с которой мы будем сталкиваться в самом ближайшем будущем – это неправомерное использование интеллектуальной собственности для обучения нейросетей. На вход сети при обучении подаются огромные массивы различных кейсов – от набора картинок, до текстов, объявлений, программных алгоритмов, анекдотов, пьес и всего, что может прийти в голову создателю нейросети, который создает некоторую генеративную систему. Поскольку нейросети появились не так давно, никто из создателей современного оригинального контента или держателей прав на классические произведения просто не задумывался о том, чтобы дать кому-то право на такое использование своего контента. Следовательно, производители нейросетей могут свободно брать этот контент для обучения сети, а правообладатели могут возмутиться и запретить использовать контент. Вот здесь и возникает юридическая коллизия и конфликт интересов.
Еще одна проблема, связанная с нарушением авторских прав, возникнет, когда правообладатели будут находит в сгенерированных нейросетью сущностях фрагменты своих произведений. Процент разрешенного использования фрагментов для ИИ пока законодательно не определен, значит, правообладатели могут возмущаться, обнаружив в сгенерированном контенте даже доли процента своих произведений. Следует отметить, что генеративные алгоритмы не создают ничего нового, они очень хорошо «миксуют» существующие фрагменты. Обучение нейросети процесс долгий и дорогостоящий, и – главное – необратимый. То есть, если при обучении сети некий фрагмент произведения взят в качестве образца, то он становится неотъемлемой частью сети. И правообладатель может с полным правом запретить использовать всю обученную сеть к использованию, шантажируя тем самым создателей сети. Конечно, возможно «прикрутить» особые фильтры на выходе, которые по решению суда будут «отлавливать» запрещенные правообладателем фрагменты, но по сути это будет означать как минимум удвоение сложности исходной сети.
В этой проблеме есть не менее интересная коллизия - кто автор созданного нейросетью контента? Тот, кто создал исходный контент, который "скормили" нейросети? Тот, кто создал технический базис нейросети (программно-аппартаную часть)? Тот, кто отобрал из миллиардов объектов авторского права подмножество объектов, "скормленных" сети? Тот, кто воспользовался готовой обученной сетью и сформулировал запрос к сети?
Не меньшая юридическая проблема - использование технологии deepfake. Грубо говоря, технология позволяет сделать цифрового двойника некоторой реальной личности - от изображения до голоса и характерных особенностей поведения - и использовать двойника для создания некоего оригинального контента. Здесь возникает юридическая задача охраны личности как набора уникальных характеристик. Пока таких казусов в юриспруденции не замечалось, так как до сих пор нет четкого определения, что такое человек.
Ещё Платон в споре с Диогеном так и не смог дать самодостаточное определение человека, а дал его через отрицание: "Человек это существо на двух ногах без перьев... И не петух!" Напомню, что в этом историческо-философском анекдоте Диоген на все уточняющие определения Платона предъявлял петуха или курицу. За 2,5 тысячи лет ничего не изменилось. То же, кстати, касается и определения термина "искусственный интеллект": это нечто, способное мыслить, но не петух!
Подробнее о моем серьезном определении термина искусственный интеллект читать можно здесь: http://digital-economy.ru/images/easyblog_articles/529/DE-2018-03-04.pdf.
Чтоб не читать всю статью, процитирую собственное определение.
Искусственный интеллект (ИИ, Artificial Intelligence, AI) – алгоритм, способный самостоятельно создавать алгоритмы, в результате срабатывания которых возможна постановка и достижение наиболее оптимальным способом новой, ранее не сформулированной создателем алгоритма цели.
Я разделяю понятие "Искусственный интеллект" и понятие «Искусственное сознание».
Искусственное сознание (Artificial Consciousness, AC) – алгоритм, способный оценить свою самость, способный самостоятельно создавать собственные морально-этические личностные конструкты (ограничения, правила) на основе анализа его жизненного пространства и действовать в рамках построенных конструктов (ограничений, правил).