Авторское право и искусственный интеллект: ключевые вопросы и международный опыт
Искусственный интеллект (ИИ) всё активнее используется для создания контента и решений – от генерирования изображений и текстов до разработки формул новых лекарств. Это порождает сложные вопросы для бизнеса и права. Ниже представлен подробный отчёт о правовом регулировании авторских прав и личных данных в контексте ИИ, с акцентом на Россию и сравнением с США, ЕС, Китаем и другими странами. Статья включает конкретные примеры, судебные прецеденты, планы законодателей и различия по странам.
1. Право на результаты, созданные с помощью ИИ (авторство и права)
Российский подход: Законодательство РФ пока не признаёт ИИ в качестве автора. По ст. 1228 Гражданского кодекса РФ автором результата интеллектуальной деятельности может быть только гражданин (физическое лицо), творческим трудом которого создан произведение. Это значит, что объект, сгенерированный полностью автономно ИИ, не будет обладать охраноспособностью как произведение. Тем не менее, права на такой контент могут принадлежать человеку или компании, которые стояли behind the AI: например, пользователю, вводившему творческое задание, или разработчику системы. Сейчас в России идут дискуссии, кому именно должны принадлежать права на AI-контент – создателям ИИ или конечным пользователям. В Госдуме в 2024 году обсуждался законопроект, по которому ответственность и права на произведения ИИ предлагается закрепить за конечным пользователем технологии. Депутат Антон Ткачёв разъяснил, что вознаграждение должен получать человек, воспользовавшийся инструментом ИИ, аналогично тому, как диджей получает гонорар за музыку, созданную на электронном оборудовании. Однако альтернативные мнения предлагают делить права и прибыль с разработчиками моделей, особенно если речь о коммерческом использовании технологий. В целом пока в России ИИ не считается субъектом права, поэтому формально авторскими правами на результат владеет либо человек, участвовавший в создании, либо никто (если творчества человека не было совсем). На практике компании часто оформляют результаты, полученные с помощью ИИ, на своих сотрудников или заключают договоры, определяющие распределение прав.
США: В США действует принцип, что авторским правом охраняются только оригинальные произведения, созданные человеком. Бюро по авторским правам США официально указало, что для охраны требуется человеческое авторство. В 2022 году это ведомство подтвердило в апелляционном решении: работа, созданная полностью алгоритмом без участия человека, не может получить охрану, поскольку отсутствует «собственная оригинальная мысленная концепция автора, воплощённая в форму». Пример – дело Thaler vs. US Copyright Office: заявка на регистрацию изображения, сгенерированного нейросетью, была отклонена, т.к. «произведение, созданное без участия человека, не защищается авторским правом». Однако возможны ситуации частичного творчества: если человек внёс достаточный творческий вклад (например, отобрал и существенно доработал результат генерации), конечное произведение может охраняться с оговоркой на вклад автора. В марте 2023 г. Бюро авторского права выпустило разъяснения, что изображения, созданные нейросетью по текстовому запросу, не охраняются, но общий комплекс (например, комикс с текстом человека и картинками ИИ) может быть защищён в тех частях, где есть творчество человека. В итоге в США право на контент, полученный от ИИ, фактически принадлежит тому, кто обеспечил творческий вклад, но чисто алгоритмические результаты – общественное достояние. Для бизнеса это означает невозможность зарегистрировать права только на основании владения или настройки ИИ, если не доказать участие человека. Компании часто прибегают к договорам и лицензиям: например, при использовании изображений, сгенерированных ИИ, включают гарантии от автора-промпт-инженера.
Евросоюз: В ЕС сходная позиция – автором может быть лишь физическое лицо, и произведения без участия человека не охраняются. Хотя прямого запрета на «нечеловеческое» авторство в директивах ЕС нет, концепция оригинального творчества человека вытекает из практики Суда ЕС. В странах ЕС не регистрируют авторские права на результаты, созданные исключительно ИИ. Например, в феврале 2023 года в системе Евросоюза обсуждались поправки по ИИ, и преобладает мнение об обязательности человеческого участия для охраны. Однако в Великобритании (не входит в ЕС с 2020 г.) уже давно существует особая норма: Закон об авторском праве, дизайнах и патентах 1988 г. признаёт «компьютерно-генерируемые произведения» и устанавливает, что автором считается лицо, сделавшее необходимые приготовления для создания произведенияekonomist.kz. Это уникальный подход: фактически британское право охраняет контент, сгенерированный алгоритмами без прямого авторства человека, назначая правообладателем программиста или оператора системы. Например, если AI-система сама сочинила музыку, автором будет разработчик или владелец системы, запустивший процесс. Великобритания сейчас пересматривает этот подход в рамках новой стратегии по ИИ, стремясь обеспечить баланс между стимулом к инновациям и защитой авторов. Но пока Британия остаётся исключением; в большинстве других стран (включая Германию, Францию и др.) требования аналогичны ЕС: нужен человеческий вклад.
Китай: Закон об авторском праве КНР также не предусматривает ИИ как автора – права могут принадлежать гражданам, организациям или предприятиям, но не машине. Однако в судебной практике Китая уже есть интересные прецеденты. В 2019 году интернет-суд Шэньчжэня рассмотрел дело о статье, сгенерированной алгоритмом Tencent Dreamwriter. Суд постановил, что текст соответствует критериям оригинальности и подлежит защите, признав правообладателем компанию Tencent. Фактически суд посчитал, что раз разработчик заложил достаточно оригинальные алгоритмы, результат можно считать произведением, созданным под контролем человека, и защитил его от копирования (нарушителю присудили компенсацию ~217 USD). Ещё пример – Народный суд Чаншу (пров. Цзянсу) в 2023 г. по иску художника постановил, что изображение, сгенерированное нейросетью Midjourney, может иметь авторские права, если при его создании был элемент творческого выбора со стороны человека. Суд обязал ответчика выплатить 10 000 юаней компенсации за неправомерное использование AI-изображенияsupersnimki.ru. Зампредседателя суда подчеркнул, что произведения, созданные ИИ, охраняются, если в них присутствует человеческая креативность. Таким образом, китайские суды формируют практику, признающую права за лицами, контролирующими ИИ, даже если сам ИИ генерирует контент. При этом ни сам алгоритм, ни его разработчик (если он не участвовал в конкретном акте создания) не получают авторства – право закрепляют за пользователем или компанией, заказавшей результат. Китайское законодательство эволюционирует: в проекте разъяснений к закону предлагалось явно указать, что при генерации контента ИИ правообладателем считается лицо, контролирующее работу ИИ.
Другие страны: В Японии и Южной Корее также придерживаются критерия человеческого творчества. Например, Япония официально не признаёт права за ИИ; в 2020 г. Японское патентное ведомство отклонило попытку указать ИИ в качестве изобретателя в патентной заявке (кейс DABUS), заявив, что изобретатель должен быть человеком. Сингапур прямо закрепил, что автором может быть только физическое лицоekonomist.kz. В Канаде пока нет прецедентов регистрации AI-контента, но по общему праву автор – человек. В Австралии суд первой инстанции в 2021 г. было сенсационно признал ИИ изобретателем, однако вышестоящий суд отменил это решение, оставив требование участия человека. Таким образом, в мире прослеживается общий тренд: авторские права на результаты ИИ первоначально принадлежат человеку – тому, кто либо создал условия для генерации, либо внёс творческий вклад. Исключение – упомянутая норма британского права и отдельные китайские решения, где права передаются разработчику/пользователю даже при минимальном участии человека.
Различие по типам результатов: Важно учитывать, что разные виды результатов ИИ подпадают под разные режимы интеллектуальной собственности:
- Произведения науки, литературы и искусства (тексты, изображения, музыка) регулируются авторским правом. Здесь действуют описанные выше подходы про авторство человека.
- Изобретения, промышленные образцы, полезные модели – охраняются патентным правом. В патентных законах практически всех стран прямо указано, что изобретателем признаётся физическое лицо. Поэтому если формулу лекарства вывел ИИ без участия человека, патент на неё получить проблематично. Например, заявки на патенты от имени ИИ DABUS были отклонены Европейским патентным ведомством, USPTO (США) и в Великобритании именно по причине отсутствия человека-изобретателя. В РФ аналогично – изобретение должно иметь автора-гражданина. В итоге компании вынуждены либо оформлять изобретения на сотрудников, курировавших работу ИИ, либо держать разработку в секрете (ноу-хау). Отдельного законодательства для патентов, созданных ИИ, пока нет, но обсуждения ведутся на уровне Всемирной организации интеллектуальной собственности (WIPO).
- Товарные знаки: могут генерироваться ИИ (например, логотип или название). Здесь авторство не играет роли – важно лишь, чтобы знак отличал товары и не вводил в заблуждение. Однако если знак создан ИИ, вопросы могут возникнуть при доказательстве оригинальности и авторства в случае спора.
- Базы данных: большие наборы данных, собранные и структурированные, могут охраняться специальным правом на базы данных (суи генерис, актуально в ЕС и России). Если ИИ автоматически сгенерировал базу данных (например, собрал информацию), право на нее обычно признаётся за изготовителем базы (тем, кто организовал сбор данных).
Вывод для бизнеса: При использовании генеративного ИИ компаниям следует закреплять договорными документами, кому принадлежат права на результат. Обычно это либо пользователь (заказчик генерации), либо разработчик ПО – согласно условиям лицензии на ИИ. Например, многие коммерческие сервисы (DALL-E, Midjourney) в условиях указывают, что пользователь получает авторские права на созданные изображения с некоторыми ограничениями. Но если контент создан автономно без творческого вклада, его охраноспособность спорна – им могут свободно воспользоваться и конкуренты. Поэтому рекомендуется всегда вовлекать человека в творческий процесс (редактирование, отбор) и фиксировать это, чтобы обеспечить правовую защиту результата.
2. Защита внешности, голоса и других личных характеристик от ИИ
Развитие ИИ принесло и новые риски: технологии Deepfake и другие алгоритмы способны имитировать облик, лицо, мимику, голос любого человека. Это ставит задачу защитить личные неимущественные права – право на изображение, частную жизнь, честь и достоинство, а также биометрические персональные данные от неправомерного использования. Рассмотрим, как можно защитить свои внешние образы и голос от копирования ИИ и какие меры принимаются в разных странах.
Россия – право на изображение: В РФ внешность человека защищена законом. Ст. 152.1 Гражданского кодекса прямо предусматривает охрану изображения гражданина: фотография, видео или иное изображение не может распространяться без согласия этого человека (за исключением случаев публичных интересов или когда он позировал за плату). Это значит, что если нейросеть создаёт видео/фото с вашим лицом (дипфейк), его распространение без вашего согласия незаконно. Пострадавший может потребовать через суд удалить такой контент и возместить моральный вред. Уже есть прецеденты: в ноябре 2023 г. Арбитражный суд Москвы рассмотрел дело о дипфейк-рекламе с лицом Киану Ривза без разрешения правообладателей. Суд признал, что компания не имела права использовать чужой облик в коммерческих целях и взыскал 500 000 руб. компенсации. Примечательно, что суд рассмотрел это как нарушение исключительного права на видеоролик (т.е. авторского права), а не только как посягательство на образ. Он указал, что применение дипфейка – всего лишь технический приём, не отменяющий действия обычных норм права. Таким образом, защита строилась через права на исходный ролик (создатели ролика имели авторское право, а лицо актёра использовано без согласия) и через общие нормы об изображении.
В целом в России человек вправе запретить использование своего изображения (фото/видео) третьими лицами. Если дипфейк-видео или фото опубликованы, можно подать иск об удалении и компенсации. Более того, внешность и голос могут рассматриваться как персональные данные. Российский закон «О персональных данных» относит фото, видеозапись, и особенно биометрические данные (изображение лица, голосовые слепки) к персональным данным, обработка которых требует явного согласия субъекта. Незаконный сбор или использование таких данных (например, скачивание чужих фото для обучения дипфейк-алгоритма или клонирования голоса) может привести к санкциям Роскомнадзора. В 2021 году был ужесточён контроль за биометрическими данными: вводится единая государственная система и ограничения на коммерческое использование биометрии без специальных разрешений. Это косвенно ограничивает создание глубоких фейков без согласия.
Голос и имитация речи: Право на голос как таковое прямо не прописано в российском законе, и голос не охраняется авторским правом (если только речь не записана в фонограмме или не является исполнением). Однако имитация голоса может нарушать права исполнителя. Например, если с помощью ИИ сгенерирован голос певца, исполняющий его песню, это затрагивает смежные права (права на исполнительское мастерство). Без разрешения артиста такая имитация его исполнения незаконна. Если же воспроизводится просто тембр голоса знаменитости для озвучивания нового текста, ситуация сложнее: формально тембр не является объектом права, но знаменитость может сослаться на право на образ или имя (аналог права на публичный образ). В России пока нет прямого запрета на имитацию чужой речи – например, телефонные пранкеры нередко копируют голоса известных лиц безнаказанно. Юристы отмечают, что создание «похожего» голоса само по себе не преследуется – всё зависит от содержания: если сгенерированная речь порочит честь человека или вводит потребителей в заблуждение (реклама от его имени), то уже возникает ответственность. В рекламе недопустимо использовать фальшивый голос известного человека так, чтобы аудиторие думала, будто он одобряет товар. Таким образом, защита голоса идёт опосредованно через смежные права и законы о недобросовестной рекламе или клевете.
Прецеденты и инициативы в РФ: Законодательно тема дипфейков в России только начинает обсуждаться. Пока используют существующие нормы (ГК, закон о Персональных данных, закон о рекламе). Из известных случаев – помимо вышеупомянутого спора о видео с Киану Ривзом – можно вспомнить иски от российских знаменитостей к рекламодателям за использование их образов без разрешения (даже без ИИ). Например, в 2021 г. актер Александр Петров взыскал компенсацию за рекламный ролик, где его лицо было вставлено без согласия (технически тоже дипфейк-эффект). В сфере публичной политики пока нет отдельного закона о дипфейках, но государственные органы озвучивали необходимость пресекать использование ИИ для дискредитации и распространения фейков (особенно актуально в контексте фальшивых новостей). Можно ожидать, что в будущих поправках появятся нормы об обязательной маркировке контента, созданного ИИ, и ответственности за неправомерное использование образов.
США – право публики и прецеденты: В США нет федерального закона, прямо запрещающего дипфейки, но действует развитый институт права на гласность (right of publicity) в законодательстве штатов. Это право знаменитостей (и обычных граждан в ряде штатов) контролировать коммерческое использование своего имени, образа и подобия. Например, запрещено использовать голос или облик известной персоны в рекламе без разрешения – за это ещё в 1980-х присуждались крупные компенсации (классический пример: певица Бетт Мидлер выиграла суд против Ford за имитацию ее голоса в рекламе). С появлением ИИ такие кейсы участились. Право голоса как отдельная категория закреплено в Калифорнии: закон штата защищает от имитации голоса известных людей в коммерческих целях. Также в ряде штатов (Нью-Йорк, Теннесси и др.) право публики распространяется на все характерные атрибуты образа. Нарушители могут привлекаться к ответственности вплоть до выплаты крупных компенсаций за незаконное использование образа.
Недавние инициативы в США сфокусированы на борьбе с порнографическими дипфейками и фейковыми новостями. В 2019 г. Калифорния приняла закон, который запрещает распространение дипфейков порнографического характера без согласия изображённого лица и даёт жертве право подать в суд. Также запрещено выпускать фальшивые видео/аудио с кандидатами в политические должности за 60 дней до выборов (мера против влияния на выборы). Нарушение этих норм грозит административными и уголовными санкциями на уровне штата.
Судебная практика в США по дипфейкам только формируется. Из свежих случаев – дело компании RocNation (Jay-Z) против YouTube-канала Vocal Synthesis, создавшего пародийные дипфейк-ролики с голосом Jay-Z. Лейбл пытался удалить эти видео, заявив о нарушении авторских прав на голос. Полностью запретить их не удалось: суд указал, что имитация голоса, не воспроизводящая конкретных фрагментов песен, не нарушает авторское право (то есть тембр и манера речи сами по себе не защищены). Два видео удалили (те, где были узнаваемые фрагменты песен рэпера), а остальные остались, поскольку являлись скорее произведением-пародией. Это показывает, что простое копирование голоса знаменитости не всегда подпадает под существующие законы, если не задействованы защищённые материалы (музыка, стихи и пр.). Тем не менее, пострадавшие могут искать защиту через право публики или общие нормы (например, иск о диффамации, если дипфейк порочит репутацию).
ЕС – защита персональных данных и инициативы: В Европе нет единого закона о дипфейках, но очень сильна защита персональных данных и приватности. Фотография лица и запись голоса считаются биометрическими персональными данными под действием GDPR. Их обработка (в том числе обучение ИИ на таких данных) требует согласия субъекта. Поэтому создание базы изображений лиц без разрешения – нарушение GDPR с многомиллионными штрафами (об этом подробнее в разделе 4). Кроме того, право на изображение также признаётся в национальных законах (например, во Франции, Германии). Гражданин ЕС, обнаруживший свой образ в дипфейке, может потребовать у платформы удалить контент (по GDPR – как “право на забвение”) и подать в суд на того, кто изготовил/опубликовал такой контент, за посягательство на частную жизнь.
Европейский союз в 2023 году продвигает Акты о цифровых услугах и ИИ. В принятом Регламенте ЕС 2022/2065 (Digital Services Act) есть требование, чтобы крупные платформы обозначали любой «глубоко сфабрикованный» контент, который может ввести пользователей в заблуждение. А проект Закона об ИИ (AI Act), одобренный Европарламентом в 2024 г., обязывает маркировать все синтетические изображения, видео или аудио, которые выглядят реалистично («deepfake»), если только они не используются в артистических или исследовательских целях. То есть предполагается на уровне закона ЕС прямое требование: указывать, что контент создан или изменён ИИ. Также AI Act включает нормы прозрачности: разработчики генеративных моделей должны публиковать отчёты о данных, на которых они обучены, и гарантировать соблюдение авторских прав и прав личности при генерации. Нарушение этих требований повлечёт штрафы по аналогии с GDPR (до 6% годового оборота компании).
Некоторые страны ЕС идут дальше: Германия обсуждает уголовную ответственность за создание дипфейков, наносящих вред частной жизни, а Франция ещё в 2020 г. приняла закон, запрещающий распространять фальшивые медиа с искажением слов политиков (под страхом тюрьмы до 1 года). Италия в 2023 временно блокировала работу сервиса Reface (украинское приложение для дипфейков) из-за вопросов к соблюдению прав пользователей.
Китай: В КНР в конце 2022 – начале 2023 введено передовое регулирование дипфейков. С января 2023 вступили в силу «Положения об управлении глубокой синтезированной информацией» – комплекс правил от Управления киберпространства Китая (CAC). Эти правила требуют, чтобы все продукты с функцией deepfake явно помечали сгенерированный контент и получали согласие человека при использовании его образа или голоса. Запрещено использовать дипфейки для порочащих, мошеннических целей, а также без указания, что это фейк. Платформы обязаны удалять неподписанные дипфейки. В 2023 году Китай также ввёл «Меры управления генеративным ИИ» – требования к провайдерам нейросетей: контент не должен нарушать права интеллектуальной собственности и права личности. Если нарушения выявятся, регуляторы (CAC, Министерство промышленности) могут вынести предупреждение, штраф, а в тяжёлых случаях – уголовное преследование.
Таким образом, в Китае фактически узаконен запрет на дипфейк без согласия. В дополнение, Гражданский кодекс Китая 2021 г. содержит нормы о защите портрета и голоса гражданина как личных прав. В случае нарушения, пострадавший может взыскать моральный ущерб. К примеру, в 2021 г. китайская актриса получила компенсацию по суду, когда её лицо было без разрешения наложено на тело в непристойном видео – суд квалифицировал это как посягательство на право на изображение.
Другие страны:
- Южная Корея столкнулась с эпидемией порнографических дипфейков и отреагировала ужесточением закона. С 2020 г. в Республике Корея уголовно наказуемо создание и распространение сексуальных дипфейков – вплоть до 3 лет тюрьмы или штраф 30 млн вон (≈$25 000). В 2023 г. законы расширили, включая ответственность даже за хранение и просмотр нелегальных дипфейков. Также Корея изменила закон о выборах, запретив дипфейки кандидатов перед выборами.
- Япония пока не имеет отдельного закона, но власти озабочены проблемой. Обсуждаются поправки к закону о незаконной клевете и диффамации, чтобы охватывать дипфейки, распространяющие ложь. Кроме того, в Японии действуют строгие законы против порнографии без согласия – они применимы и к дипфейкам.
- Канада опирается на общее право: неправомерное использование образа человека без разрешения может рассматриваться как нарушение права на частную жизнь (Privacy Torts) или права публики в провинциях, где оно признано. В 2023 г. при правительстве создан консультативный совет по ИИ, один из вопросов – предотвращение злоупотреблений вроде deepfake. Пока конкретных законов нет, но Канада вероятно последует примеру ЕС по маркировке контента.
- Австралия и Новая Зеландия также не остались в стороне: обсуждаются инициативы штрафовать платформы, на которых распространяются вредоносные дипфейки, а создание интимных дипфейков без согласия уже подпадает под статьи о «image-based abuse» с серьезными санкциями.
Итоги: Бизнесу следует учитывать, что использование в коммерческой деятельности чьего-либо облика или голоса, полученных с помощью ИИ, требует явного разрешения. Реклама с дипфейком знаменитости без договора может повлечь суд и штраф. Внутри компаний стоит разработать политику по deepfake: отслеживать появление подделок, защищать бренд лиц руководителей, а также самим воздерживаться от сомнительных маркетинговых ходов. Новые законы во всем мире постепенно формируют рамки: обязанность маркировать ИИ-контент, получать согласие, а за нарушение – серьёзная ответственность (финансовая и уголовная).
3. Использование защищённых авторским правом произведений для обучения ИИ
Модели искусственного интеллекта, особенно генеративные (типа GPT, Stable Diffusion и др.), обучаются на огромных массивах данных, включающих тексты, изображения, музыку, код, часто собранные из интернета. Значительная часть этих данных защищена авторским правом. Возникает вопрос: насколько законно использование чужих произведений в качестве обучающих данных? И не нарушает ли итоговый сгенерированный контент права оригинальных авторов?
Проблема: С одной стороны, разработчики ИИ утверждают, что обучение модели – аналог обучения человека: алгоритм выявляет общие закономерности, а не запоминает и не воспроизводит дословно чужие работы. По их мнению, это должно попадать под доктрину добросовестного использования или научного анализа. С другой стороны, авторы и правообладатели заявляют, что компании используют их произведения без разрешения и компенсации, порой просто скопировав миллионы файлов под предлогом “исследований”. Эта практика уже привела к волне судебных исков: художники, писатели, фотографы объединились против компаний-разработчиков ИИ, обвиняя их в нарушении копирайта при сборе данных.
Россия: В российском законодательстве прямого положения, позволяющего использовать чужие произведения для обучения ИИ без согласия, нет. Общие нормы говорят, что любое воспроизведение произведения требует согласия автора, если не подпадает под исключения (цитирование, учебные цели, библиотеки и т.п.). Обучение нейросети предполагает копирование данных в память компьютеров, разбор их – формально это воспроизведение и переработка. Поэтому без разрешения это может считаться нарушением. Пока громких исков в России не было, но потенциально правообладатель может предъявить претензии, если докажет, что его произведения были использованы для обучения коммерческой ИИ-системы. Российские законодатели обсуждают эту проблему. Есть идея узаконить исключение для текстового и дата-майнинга (по аналогии с Европой) – чтобы научные организации и компании могли легально анализировать большие данные. В то же время могут появиться ставки вознаграждения за использование контента в обучении ИИ (в пользу авторов). Консенсус не выработан: одни предлагают разрешить майнинг данных свободно, другие – требовать лицензии или выплаты.
Показательно мнение экспертов: Спартак Хулхачиев (юрист по ИС) отметил, что если ИИ обучен на материалах третьих лиц, защищённых авторским правом, важно избежать “цепочки нарушений”, иначе каждый сгенерированный контент будет порождать претензии. То есть необходим или законный режим использования данных, или фильтрация выхода. Российские компании пока действуют осторожно: крупные игроки стараются использовать либо открытые лицензии (Creative Commons), либо заключать соглашения с правообладателями на доступ к данным.
США: В США нет прямой нормы, но действует гибкая доктрина Fair Use (добросовестного использования). Некоторые считают, что обучение ИИ – трансформативное использование, имеющее научную ценность, поэтому может быть Fair Use (как, например, поисковое индексирование или сканирование книг для поиска, признанные допустимыми судами). Однако это предстоит проверить в судах. На конец 2024 года в США уже поданы коллективные иски против OpenAI (создателя ChatGPT) и Stability AI (создателя Stable Diffusion) от групп авторов, художников, программистов. Авторы утверждают, что их книги и картины были скопированы в датасеты без разрешения, что нарушает §106 Закона об авторском праве (исключительное право на копирование и создание производных произведений). В одном иске (экранисты против OpenAI) указывается, что модели приводят обширные фрагменты книг, то есть фактически хранят и выдают части защищённых текстов – явное нарушение. Компаниям OpenAI и другим придётся доказывать в суде трансформативность и общественную пользу такого использования. Ещё кейс: The New York Times против OpenAI – газета обвиняет, что статьи с её сайта были массово использованы для обучения чатбота без лицензии. Эти судебные процессы только начались, и прецедентов пока нет. Но известен положительный для ИИ случай: дело Authors Guild v. Google (2015) – суд признал сканирование миллионов книг Google для проекта поиска добросовестным использованием, поскольку выдавались лишь отрывки и цель была информационная. Компании, вероятно, проведут параллель с этим прецедентом.
Пока же в США юридическая неопределённость. На практике многие фирмы стремятся обезопаситься: например, Microsoft и OpenAI заключили договор с крупнейшей биржей контента Getty Images, чтобы лицензировать часть изображений для обучения новой модели. Это признаёт факт: обучение на чужом контенте – зона риска, лучше заручиться разрешением или ограничить выдачу. Также появляются технические инициативы: ряд издательств внедряют в метаданные своих сайтов код, запрещающий веб-скрейпинг (аналог “robots.txt” для ИИ), чтобы исключить их данные из обучения. Если ИИ-боты игнорируют запрет, это может рассматриваться как нарушение условий пользования сайтом и также повлечь претензии.
ЕС: Евросоюз попытался заранее урегулировать Text and Data Mining (TDM). В 2019 г. принята Директива (EU) 2019/790, которая ввела два новых исключения из авторского права для текстового и дата-майнинга. Статья 3 Директивы разрешает исследовательским организациям и университетам проводить текстовый и дата-майнинг в научных целях на любых данных, к которым у них есть законный доступ, без необходимости спрашивать разрешения правообладателей. Это покрывает, например, анализ научных статей, архивов, интернет-корпусов – даже если они защищены правом, но, скажем, куплены по подписке или находятся в открытом доступе. Статья 4 вводит более широкое исключение: для любых пользователей (в том числе коммерческих компаний) разрешается майнинг данных, но правообладатель может заявить запрет. То есть, если сайт или база данных явно объявили, что отказываются от исключения TDM (например, машинно читаемым тегом), то их данные нельзя майнить без лицензии. Если же запрета нет, компания может обработать контент, к которому имеет доступ, для разработки ИИ. Эти нормы уже внедрены в национальные законы большинства стран ЕС (Франция, Германия и др.). Таким образом, в ЕС обучение ИИ на чужих данных в некоторой степени легализовано: для науки – полностью, для бизнеса – “разрешено, если не запрещено автором”.
Однако европейские законодатели идут дальше: как упоминалось, предлагаемый AI Act обяжет раскрывать список обучающих данных для генеративных моделей. Это позволит авторам проверить, не использовались ли их произведения. Если использовались и модель выдаёт похожий контент – возможны иски о нарушении. Кроме того, ЕС обсуждает и вознаграждение: например, звучали идеи создать коллективное управление правами для данных, когда разработчики ИИ платили бы взносы, распределяемые между правообладателями чьих работ в датасете (но конкретных норм пока нет).
Противоположный пример – Великобритания: после выхода из ЕС Лондон хотел даже пойти дальше и позволить TDM для любых целей без оплаты и отказа. В 2022 г. правительство предлагало полностью разрешить коммерческим ИИ-моделям использовать интернет-контент для обучения. Однако после протеста индустрии (особенно художников и издателей) от этой идеи отказались. Сейчас Британия придерживается схожей схемы с ЕС: некоммерческий майнинг – можно, коммерческий – с правом отказа правообладателя.
Другие регионы:
- Япония известна наиболее либеральным подходом: ещё в 2018 г. она внесла поправки в закон об авторском праве, которые разрешают использовать защищённые произведения без согласия для машинного обучения, данных исследований и разработки ИИ, при условии что это не наносит ущерба прямым интересам правообладателя. Япония фактически легализовала любое копирование данных для обучения, если конечная цель – не потребление самих этих данных человеком, а анализ. Это помогло японским компаниям развивать ИИ с меньшими рисками.
- Китай формально не имеет doctrine fair use, и их Закон об авторском праве требователен к разрешениям. Тем не менее, правительство Китая косвенно допускает анализ данных: в рекомендациях 2022 г. компаниям предписано обеспечивать законность источников данных, но также говорится о правах на технологии data mining. На практике крупные китайские корпорации (Alibaba, Baidu) заключают соглашения с государственными СМИ и издательствами, чтобы использовать их контент для обучения. В 2023 г. было несколько случаев, когда китайские художники судились с разработчиками локальных нейросетей за использование их артов – некоторые компании пошли на мировое соглашение, удалив спорные материалы из датасета. Учитывая жесткие законы в Китае, компании стремятся самоцензурировать датасеты – не только по политическим причинам, но и чтобы не затронуть отечественных правообладателей.
- Канада и Австралия пока не имеют специальных исключений. Возможно, будет применяться аналог американского fair use (в Канаде – fair dealing с ограниченными целями). В Канаде обсуждается реформа авторского права, и там затрагивали вопрос ИИ; решение, вероятно, будет близко к модели ЕС.
- Южная Корея и Сингапур: Сингапур в 2021 г. внёс изменения, разрешив data mining для исследований. Южная Корея в 2020 г. легализовала использование данных для машинного обучения, если они были законно обнародованы и используются для “информационных анализов”. То есть регион АТР также движется к разрешительным нормам.
Выходные данные (генерации) и плагиат: Отдельный вопрос – нарушает ли сгенерированный ИИ контент чьи-либо авторские права, если он похож на обучающие образцы. Например, картинка “в стиле конкретного художника” или текст, повторяющий фразы из книг. Тут нет однозначного правила. Если ИИ буквально скопировал существенную часть произведения – это нарушение. Но обычно модели создают новые сочетания, хотя и имитируют стиль. Юридически стили и идеи не защищаются авторским правом – только конкретная форма. Значит, картину “под Ван Гога” нейросеть нарисовать может, и это не будет нарушением, если она не включила, скажем, фрагмент исходного полотна. Однако были случаи, когда нейросети по ошибке воспроизводили целые существующие изображения или тексты (например, выдавали дословно стихи из обучающей выборки) – такие ситуации однозначно трактуются как нарушение авторского права разработчиком модели (непосредственным «нарушителем» может считаться и пользователь, запросивший такую выдачу). Поэтому разработчики внедряют фильтры: OpenAI ограничивает длину воспроизводимых отрывков из книг, Stability AI убрала из генератора возможность точно вызвать стиль конкретного живущего художника и т.д.
Вывод: Регулирование использования данных для обучения ИИ пока догоняет технологию. Бизнесу, использующему ИИ, важно:
- Проверять лицензии на наборы данных: предпочтительно использовать открытые данные или по соглашению с правообладателями.
- Отслеживать юридические изменения: возможно, придётся указывать источники данных или платить отчисления авторам.
- Быть готовым к искам: заложить в политику компании страхование на случай претензий по ИИ-контенту.
- Разрабатывать этичные принципы: уважать robots.txt и аналогичные сигналы от правообладателей, предоставлять авторам возможность удаления их контента из вашей обучающей выборки.
4. Наказания за нарушение авторского права и неправомерное использование данных личности с ИИ
Нарушение авторских прав или незаконное использование чужих данных посредством ИИ может повлечь серьёзные санкции – от гражданско-правовых исков с компенсациями до уголовной ответственности. Рассмотрим, какие наказания предусмотрены в разных юрисдикциях:
Россия:
- Гражданско-правовая ответственность: Правообладатель может подать в суд и потребовать компенсацию за нарушение авторского права. По ст. 1301 ГК РФ суд может присудить по выбору истца либо возмещение убытков, либо компенсацию от 10 тысяч до 5 миллионов рублей за каждый факт нарушения, исходя из характера нарушения. В известных делах суммы обычно ближе к нижней границе, но если нарушение крупномасштабное (например, компания использовала тысячи изображений незаконно), компенсация может достигнуть миллионов. Кроме того, суд почти всегда выносит решение о прекращении нарушения – запрещает дальнейшее использование контента, обязывает удалить его, изъять тираж и т.д.
- Административная ответственность: Статья 7.12 КоАП РФ предусматривает штрафы за нарушение авторских и смежных прав (если нет признаков уголовного преступления) – для граждан до 2 000 руб., для должностных лиц до 20 000 руб., для организаций до 40 000 руб. Эти суммы невелики и мало применяются на практике, чаще идут сразу в гражданский суд.
- Уголовная ответственность: При причинении крупного ущерба (свыше 100 тыс. руб.) или если нарушение совершено группой/повторно, может наступить уголовная ответственность по ст. 146 УК РФ. Максимальное наказание – до 6 лет лишения свободы (за незаконное использование объектов авторского права в особо крупном размере, с извлечением дохода свыше 1 млн руб.). К таким случаям относится, например, пиратское распространение ПО или медиаконтента. В контексте ИИ уголовные дела маловероятны, разве что явное коммерческое воровство контента под видом ИИ.
- Персональные данные и образ: Незаконный сбор или распространение персональных данных (включая биометрических) влечёт штрафы по КоАП (ст.13.11) – для организаций штраф до 500 тыс. руб. Если нарушены права на изображение гражданина, он может потребовать компенсацию морального вреда (сумма по усмотрению суда, обычно от 5 до 50 тыс. руб., но в резонансных случаях – больше). Диффамация или оскорбление с использованием дипфейка могут повлечь отдельную ответственность по ст. 128.1 УК РФ (клевета) или ст. 5.61 КоАП (оскорбление), с штрафами до 1 млн руб. Порнодипфейк с реальным лицом может квалифицироваться как незаконное изготовление порнографии (ст. 242 УК РФ).
- Примеры: Уже упомянутый случай с дипфейк-видео Киану Ривза завершился гражданской компенсацией 500 тыс. руб.. В 2022 г. издательство «Эксмо» выиграло дело против сайта, размещавшего книги, сгенерированные нейросетью на основе их произведений – суд присудил компенсацию около 200 тыс. руб. за нарушение авторских прав. Эти примеры показывают, что суды готовы взыскивать ощутимые суммы, хотя миллионы – редкость в РФ.
США:
- Гражданская ответственность: Закон об авторском праве США позволяет правообладателю требовать либо возмещения ущерба + отдачи прибыли нарушителя, либо статутных (установленных законом) убытков. Статутные damages – от $750 до $30 000 за каждое нарушение, а при умышленном нарушении – до $150 000 за каждый эпизодdocs.github.com. То есть если компания без разрешения использовала 100 изображений, теоретически штраф может достигать миллионов долларов. Кроме того, суд обычно выносит injunction – судебный запрет на дальнейшее использование, под угрозой contempt of court. В случаях с ИИ, если будет доказано незаконное копирование данных, компания-нарушитель может попасть под многомиллионные иски (например, Getty Images требует $1,8 трлн в иске к Stability AI, исходя из $150k за каждое из 12 млн нарушений – очевидно, это скорее давление, но показательно).
- Уголовные меры: Уголовная ответственность за умышленное коммерческое нарушение авторских прав (например, пиратство в крупном размере) в США тоже есть: согласно 17 USC §506 и 18 USC §2319 нарушителям грозит до 5 лет тюрьмы и штраф до $250 000. Однако применение уголовного закона к случаю обучения ИИ на чужих данных маловероятно – такие дела обычно про контрафактные диски, ПО и т.п.
- Право на образ: Нарушение права публицитета в штатах обычно влечёт гражданские иски с выплатой компенсации, иногда очень значительной (зависит от ущерба для знаменитости). Например, в 2022 г. актерка выиграла $1,5 млн дело против компании, использовавшей её цифровой аватар в рекламе без разрешения. Также возможны пени за каждый день нарушения по решению суда.
- Персональные данные: В США пока нет единого аналога GDPR, но есть законы штатов. Например, закон Иллинойса BIPA (Biometric Information Privacy Act) – один из самых строгих: за каждое незаконное использование биометрии (лица, голоса) назначается штраф $1 000 (неумышленно) или $5 000 (умышленно) per instance. По этому закону компания Clearview AI, собравшая фото лиц из интернета для распознавания, получила ряд исков и уже вынуждена платить многомиллионные суммы в порядке урегулирования. Для бизнеса это сигнал: без согласия использовать биометрию рискованно. Если ИИ-сервис собирает пользовательские фото/голос без уведомления, он может попасть под групповой иск.
- Прецеденты наказаний: Из недавнего – Clearview AI оштрафована французским регулятором на €20 млн и голландским на €30 млн за сбор фотографий людей онлайн без разрешенияedpb.europa.eutass.ru. Хотя это европейские штрафы, они ударили по американской компании, демонстрируя трансграничное воздействие. В самой Америке в 2023 г. несколько компаний урегулировали BIPA-иски, заплатив: Snapchat – $35 млн, Amazon – $30 млн за неправильное использование технологий распознавания лиц. Что касается авторского права, в 2022 г. суд присудил калифорнийскому пиратскому сайту выплатить $83 млн правообладателям за размещение книг – эти цифры иллюстрируют потенциальный масштаб претензий.
ЕС:
- Гражданско-правовые меры: В странах ЕС действуют гармонизированные правила через Директиву 2004/48/EC: правообладатель может требовать возмещения убытков, включая упущенную выгоду, и/или выплаты компенсации, а также судебного запрета. Размеры компенсаций зависят от страны, но в целом учитывают рыночную стоимость прав. Суд может удвоить гипотетическую лицензионную плату или взыскать всё, что заработал нарушитель. В случаях злостного нарушения могут присудить и моральную компенсацию. Например, в Германии известны иски музыкальных лейблов к онлайн-сервисам – суд назначал до €1,2 млн возмещения. При этом в ряде стран ЕС возможна уголовная ответственность за авторско-правовые нарушения (например, во Франции – до 3 лет тюрьмы и €300k штрафа за контрафакцию).
- GDPR-штрафы: За незаконную обработку персональных данных (что актуально при дипфейках и биометрии) Евросоюз штрафует очень жёстко. GDPR устанавливает штраф до €20 млн или 4% мирового годового оборота компании (что больше) за серьёзные нарушения. Уже есть случаи: помимо упомянутого Clearview AI (€20 млн во Франции, €30,5 млн – Нидерланды)edpb.europa.eutass.ru, компания Google в 2023 г. получила штраф €10 млн в Италии за использование образов людей в сервисах ИИ без достаточного основания. Большие технологические компании создают специальные процедуры, чтобы не нарваться на такие штрафы – вплоть до отказа от некоторых функций ИИ в Европе. Кроме того, GDPR позволяет пострадавшим требовать компенсацию за моральный вред напрямую от нарушителя.
- Маркировка deepfake: Хотя AI Act ещё не вступил в силу, можно ожидать, что его нарушение будет также наказываться крупными штрафами. Если провайдер ИИ не промаркирует сгенерированный контент или не предоставит отчет о обучающих данных, регуляторы смогут выписывать штрафы до 6% глобального оборота (что для IT-гигантов – миллиарды евро).
- Судебная практика: В 2023 г. во Франции состоялся первый суд по deepfake-мошенничеству: злоумышленник с помощью поддельного видео обманул инвестора, предъявив себя в образе министра – его приговорили к 5 годам тюрьмы за мошенничество. Хотя это не напрямую про авторское право, показательно, что применяются существующие статьи УК (fraud). За дипфейк-порноконтент в Европе могут инкриминировать статьи о сексуальном насилии на образе (Германия обсуждает такую норму).
Китай:
- Гражданские и административные меры: Китай усилил санкции за ИС-нарушения в поправках 2021 года к Закону об авторском праве. Теперь суд может назначить до 5 млн юаней компенсации (≈$700k) или пятикратный размер предполагаемого лицензионного дохода в случае умышленного нарушения. Плюс ввели штрафные (punitive) убытки – если нарушение злостное, до 5× от суммы реального ущерба. Китайские суды становятся более строгими: в 2022 г. в деле против крупного видеосервиса присудили 2 млн юаней за незаконное использование музыки. В контексте ИИ – если, к примеру, доказано, что компания скопировала чужую базу изображений, возможен огромный штраф, исходя из количества произведений.
- Уголовные санкции: Уголовный кодекс Китая (ст. 217) предусматривает до 3 лет тюрьмы или штраф за незаконное воспроизведение и распространение произведений с целью получения прибыли, в крупном размере (до 10 лет если особо крупный ущерб). В 2023 г. полиция Китая арестовала группу, продававшую дипфейк-видео с обнажёнными знаменитостями, по обвинению в распространении непристойных материалов – грозит до нескольких лет лишения свободы.
- Нарушение правил дипфейк: Согласно новым административным мерам, если сервис ИИ нарушит требования по маркировке или получению согласия, регулятор может вынести предупреждение, наложить штраф (до 100 тыс. юаней за небольшой проступок, до нескольких миллионов – за серьёзный). В тяжёлых случаях могут приостановить деятельность платформы или привлечь ответственных лиц к уголовной ответственности по смежным статьям (например, за подделку официальных документов, если дипфейк используется так, или за нарушение общественного порядка).
- Иски личности: Китайский Гражданский кодекс даёт гражданину право требовать извинения, опровержения и компенсации за посягательство на его права на имя, образ, честь. Уже есть случаи: в 2022 г. блогер заплатил 50 тыс. юаней знаменитости за то, что вставил её лицо в свое видео без разрешения (суд расценил это как незаконное использование портрета). Штрафы в этой категории обычно не очень большие, но комбинируются с репутационными издержками.
Другие страны:
- Южная Корея: как отмечалось, до 3 лет тюрьмы за дипфейки порнографического характера. За нарушение авторских прав – до 5 лет тюрьмы или штраф 50 млн вон. Судебная система Кореи строга: в 2021 г. разработчик, скопировавший код конкурента (пусть и с помощью ИИ), получил условный срок и крупный штраф.
- Япония: нарушение авторского права – уголовно наказуемо (до 10 лет или ¥10 млн штрафа). В 2022 г. в Японии впервые арестовали человека за распространение порномонтажа (добавлял лица поп-идолов в видео) – ему грозит тюрьма по статьям о притязании на честь и непристойности.
- Индия, Бразилия, ЮАР: эти страны пока используют общие нормы. В Индии рассматривается билль о цифровых правах, где планируют ввести штрафы за нарушение приватности (до $500k) и обязать ИИ-разработчиков соблюдать принципы “fair use”.
- Канада: устанавливает в основном гражданские компенсации. Статутные damages за копирайт в Канаде – до C$20k за нарушение (при некоммерческом – до C$5k за все нарушения совокупно). Это меньше, чем в США, но при множественных случаях все равно может набежать крупная сумма. За нарушение приватности – недавнее решение суда присудило журналистам C$100k за скрытую съемку (ориентир для дипфейк-ситуаций).
Резюме: Во всех регионах наблюдается усиление ответственности. Для бизнеса это означает:
- Риски крупных штрафов и судебных расходов в случае недобросовестного использования контента или чужого образа. Страховые компании даже начали предлагать полисы от исков, связанных с ИИ.
- Необходимо внедрять compliance-программы: проверить датасеты на наличие пиратского контента, получить согласия у людей, чьи данные используются, маркировать AI-контент.
- Держать на контроле законодательство: новые правила (как AI Act в ЕС или законопроекты в РФ) могут потребовать быстрых изменений в бизнес-процессах.
Сводная таблица: регулирование ИИ и авторского права в разных странах
Для удобства ниже приведена таблица сравнений ключевых аспектов по выбранным юрисдикциям:
АспектРоссияСШАЕвросоюзКитайДругие (Канада, Япония, Юж. Корея)Авторство и права на AI-контент– Автором может быть только человек (ИИ не субъект права).
– ИИ-результат охраняется, если есть творческий вклад человека; права принадлежат этому человеку или его работодателю.
– Вопрос, кому отдавать права (пользователю или разработчику ИИ), обсуждается – законопроект предлагает закрепить за пользователем.
– Полностью автономные произведения ИИ не охраняются (де-юре public domain).– Жёстко: авторское право защищает только произведения с элементом человеческого творчества.
– Заявки на регистрацию чисто AI-контента отклоняются (прецеденты: отказ в регистрации картинки от ИИ).
– Если человек отобрал/правил сгенерированное, может получить права на итог (элемент творчества).
– Правообладатель по умолчанию – человек-создатель или компания (через договор с автором).– Требуется человек-автор (принцип оригинальности).
– В национальных законах ЕС нет охраны для произведений без автора-человека.
– Специальная норма только в Великобритании: охрана компью-терно-генерированных произведений, автором считается лицо, сделавшее необходимые приготовленияekonomist.kz. (В ЕС такого правила нет.)
– В целом в ЕС, как и в США, AI-контент без человеческого вклада = неохраняемый результат.– Авторами могут быть граждане/организации, не ИИ.
– Суды признают права на AI-контент за пользователем или разработчиком, если был человеческий контроль или творчество.
– Прецеденты: статья от ИИ защищена, права у Tencent; изображение Midjourney – права у человека, сгенерировавшего его.
– Алгоритм или модель ИИ сами по себе не получают права.– Канада: по сути, как США (требуется человеческий автор, прямых случаев еще не было).
– Япония: признаётся только человеческое авторство; экспериментально рассматривали AI-контент как “служебный” на автора программы, но пока без закона.
– Южная Корея: придерживается Бернской конвенции – автор человек; обсуждает поправки, но пока AI не может быть автором.
(В других странах аналогично, везде автор – физлицо, кроме особого случая Британии.)Защита образа, голоса (личные права)– Право на изображение закреплено (ст.152.1 ГК РФ): использование фото/видео лица без согласия – незаконно, кроме общественных случаев. Есть судебная практика против дипфейков (штраф 500 тыс. руб. за лицо Киану Ривза в рекламе).
– Голос: напрямую не охраняется, но использование чужого голоса в коммерции может рассматриваться как вводящее в заблуждение (реклама) или нарушающее смежные права исполнителя.
– Инициативы: биометрические данные (лицо, голос) строго регулируются (необходимо согласие), планируется маркировка дипфейков. Уголовных статей за дипфейк нет, применяют общие (клевета, порнография).– Право publicity (гласность): в ряде штатов закон защищает имя, образ и даже голос знаменитостей. Незаконное коммерческое использование -> гражданский иск, компенсации (сотни тысяч $).
– Спец.законы: Калифорния запретила порнодипфейки и политические дипфейки перед выборами (штрафы, тюрьма до 1 года).
– Прецеденты: дела 80-х (имитация голоса – компенсация знаменитости). Jay-Z против дипфейк-роликов: суд удалил только те, что копировали защищённые песни.
– Нет единого федерал.закона, но через право на образ и существующие законы (мошенничество, клевета) борются с вредоносными дипфейками.– GDPR: лицо и голос = персональные данные. Обработка без согласия -> штраф до €20 млн или 4% оборота. Уже штрафовали (Clearview AI €20 млн)edpb.europa.eu.
– Право на частную жизнь: защищает от распространения изображений без согласия. Жертвы дипфейка могут требовать удаления и ущерба.
– AI Act (проект): обязательная маркировка всех deepfake-контентов.
– Национальные меры: законы ряда стран ЕС против фейковых медиа (штрафы, в т.ч. уголовные). Например, Франция и Германия ввели нормы против дипфейков, особенно в выборах и порнографии (тюремное наказание).– Строгое регулирование: с 2023 г. действует правило: дипфейки должны иметь явную маркировку и нельзя использовать чей-либо образ/голос без согласия.
– Платформы обязаны удалять неотмеченные дипфейки.
– Право на образ (портрет) и голос в Гражданском кодексе КНР: охраняются, нарушение -> обязанность извиниться и компенсировать. Суды присуждают компенсации (пример: ¥10k за несанкционированный дипфейк).
– Санкции: административные штрафы, блокировка сервисов; если дипфейк нанес серьезный вред – вплоть до уголовной ответственности.– Канада: законы о защите персональной инфы (PIPEDA) требуют согласия на сбор изображений, но прямого запрета дипфейков нет. Возможно применение деликтного права (privacy tort).
– Япония: личные права сильно уважаются, за порочащий дипфейк – иск о диффамации; отдельного закона нет, но введена уголовная ответственность за кибер-оскорбления, что может охватить дипфейки.
– Южная Корея: криминализованы сексуальные дипфейки (до 3 лет тюрьмы); также запрещены дипфейки в политической агитации. Голос/образ знаменитостей защищены под общей нормой о имени/образе (гражданские иски).Обучение ИИ на чужих данных (использованиеProtected content в датасетах)– Специального разрешения нет – действует общее правило: копирование для обучения = воспроизведение, требует согласия.
– Возможные исключения: научное цитирование, но оно узкое.
– Нет судебной практики пока; риск претензий существует.
– В планах обсуждается введение исключения для дата-майнинга, но с компенсацией авторам.
– Компании стараются получать лицензии или использовать открытые данные.– Неурегулировано напрямую. Возможна защита через fair use, но гарантий нет – решается по 4 факторам (цель, трансформативность, влияние на рынок и др.).
– Уже идут групповые иски авторов и художников против AI-фирм за незаконное использование контента (например, Authors Guild vs. OpenAI, Getty Images vs. Stability).
– Прецедент Google Books (добросовестное сканирование книг) дает шанс считать обучение ИИ fair use, но итог зависит от суда.
– Пока многие компании выбирают заключать сделки с правообладателями или ограничивать выдачу, чтобы снизить риск.– Чёткие исключения TDM: Директива 2019/790 позволяет исследовательским организациям свободно майнить данные. Коммерческим пользователям – можно, если правообладатель не выразил запрет (opt-out).
– Таким образом, обучение ИИ на легально доступных данных разрешено, если правообладатель не запретил явно.
– Будущий AI Act потребует прозрачности: публикации списка обучающих датасетов. Нарушение авторских прав в данных повлечет ответственность даже постфактум.
– ЕС также обсуждает вознаграждение авторам за использование их произведений в обучении (механизм пока не принят).– Закон не разрешает прямо, но…
– Правительственные правила обязывают AI-разработчиков не нарушать ИС. Практически, это вынуждает либо использовать лицензированные данные, либо чистить датасеты.
– Судебно: случаи признания нарушения редки, однако известен иск китайских художников к местному аналогу Stable Diffusion – несколько дел урегулировано, компании пообещали фильтровать контент.
– Китай может пойти по пути выдачи гос-лицензий на крупные датасеты. Пока же компании работают в серой зоне, под надзором государства.– Канада: нет особых правил, вероятно опора на fair dealing (может быть интерпретировано в пользу анализа данных). Минобор науки Канады рекомендовал в 2021 позволить TDM для ИИ, но изменений ещё нет.
– Япония: наиболее либерально – разрешено копировать контент для машинного обучения (поправки 2018) без согласия, если это не мешает обычному использованию произведения. Фактически, обучение ИИ легально.
– Юж. Корея: разрешено использование опубликованных данных для “данного анализа” (2019 поправки), близко к модели Японии.
– Австралия: обсуждает введение fair use, пока же нет специфического права на TDM, но были рекомендации правительству его добавить.Наказания за нарушения (копирайт, личные данные)– ГК РФ: компенсация до 5 млн руб. за каждый случай нарушения авторского права. Суды обычно присуждают 10₽-500₽ тыс. руб. в зависимости от тиража, прибыли нарушителя.
– УК РФ: до 6 лет лишения свободы за крупное нарушение (ст.146 УК). Применяется редко, в основном к коммерческим пиратам.
– Персональные данные: штрафы до 500k руб. для компаний (КоАП), либо при тяжких последствиях – ст.137 УК (нарушение приватности) до 4 лет.
– Примеры: 500k руб. взыскание за дипфейк-видео; ~200k руб. за нелегальный книгогенератор; уголовное дело против сайта, распространявшего чужие нейрокартинки (расследуется).– Civil: Statutory damages $750-$30k, до $150k за умышленное нарушение за каждое произведениеdocs.github.com. Возможны многомиллионные суммы (теоретически – триллионы, как в иске Getty).
– Criminal: до 5 лет тюрьмы + штраф $250k за willful infringement (применяется к крупным пиратам).
– Personal data/likeness: штрафы по штатам (например, Иллинойс BIPA – $1-5k за каждый случай). Коллективные иски могут разорить: компании платят десятки миллионов по мировым соглашениям.
– Examples: Midler v. Ford – $400k за голосовой имитатор; Clearview AI – запрет работы и многомиллионные выплаты; Napster (ранее) – $26 млн в пользу истцов.– Авторское право: возмещение ущерба + прибыль нарушителя; могут быть позитивные штрафы (например, в Германии до двойной лицензионной платы). Уголовно – до 3 лет тюрьмы (в разных странах).
– GDPR: штрафы до €20 млн или 4% оборота за нарушение данных. Уже реализовано (миллионные штрафы Facebook, Clearview).
– DSA/AI Act (когда вступят): штрафы до 6% оборота за не маркировку дипфейков или нераскрытие данных.
– Примеры: итал. газета выиграла €50k у блогера за копирование статей; французский CNIL оштрафовал клуб футбольных фанатов на €30k за дипфейк-фото без согласия.– Авторские права: усилены штрафы – до 5 млн CNY, punitive damages ×5 при злостном нарушении. Часто применяются статутные компенсации (суды могут назначить сумму по своему усмотрению до лимита).
– Уголовно: за контрафакт – до 3-7 лет тюрьмы. За серьезные дипфейк-нарушения – могут вменить мошенничество или распространение порнографии (схожие сроки).
– Персональные данные: по закону PIPL штраф до 50 млн юаней или 5% годового оборота компании. Плюс внесение в «чёрный список» компаний-нарушителей в Китае.
– Примеры: штраф 500k CNY против компании за копирование новостных статей; уголовное дело 2023 г. против разработчиков порнодипфейков (ждёт суда).– Канада: нарушение копирайта – до C$20k за произведение (гражданская компенсация), уголовно – до 5 лет тюрьмы (редко используется). Нарушение privacy – штрафы по провинциям (в Онтарио недавний case: C$100k за распространение интимных изображений).
– Япония: за копирайт до 10 лет тюрьмы или ¥10 млн; активно привлекают за пиратство. За диффамацию онлайн с 2022 – до 1 года тюрьмы. Дипфейкер может попасть под эти статьи.
– Южная Корея: авторское право – до 5 лет или ₩50 млн. Уже были тюремные сроки за продажу нелегального контента. Биометрия защищена строгими правилами, нарушение – штрафы и потенциально тюрьма (за нарушение информационного акта).
Примечание: Несмотря на наличие законов, практика их применения к технологиям ИИ только складывается. Поэтому компаниям важно не только следовать букве закона, но и учитывать репутационные риски. Нарушение авторских прав или появление скандала с дипфейком может привести к падению доверия клиентов и партнёров, что не менее важно, чем формальные штрафы.
Заключение
Искусственный интеллект бросает вызов традиционному праву, и во многих аспектах правила еще не до конца сформированы. Однако тенденции очевидны: законодатель стремится найти баланс между поощрением инноваций и защитой прав авторов и личности. Бизнесу, работающему с ИИ, рекомендуется тщательно следить за правовыми изменениями и уже сейчас внедрять наилучшие практики: получать согласия, заключать договоры по IP-правам, маркировать AI-контент и обеспечивать прозрачность. Это не только снизит юридические риски, но и повысит доверие к компании на рынке, где этические стандарты использования ИИ становятся частью конкурентного преимущества.
Источники и ссылки:
- Гражданский кодекс РФ (ч.4) – ст. 1228 (автор – только гражданин), ст. 1259 (охраняемые произведения), ст. 152.1 (право на изображение).
- Закон РФ «О персональных данных» №152-ФЗ – режим обработки биометрических данных.
- Постановление Арбитражного суда г. Москвы по делу № А40-58711/2023 (ООО «Рефейс технолоджис» vs ООО «Бизнес-аналитика») – решение по дипфейк-видео (2023).
- Парламентская газета / CNews – комментарии А. Ткачёва о законопроекте по ИИ (2024), мнение С. Хулхачиева о цепочке нарушений.
- Российская газета – «Почему закон не признает авторства ИИ» (2024) – нормы ГК РФ и разбор кейсов.
- РБК Тренды: «Дипфейки: как трансформируется авторское право» – анализ угроз дипфейков и случаи (2020); «Авторские правки: кому принадлежат права на творчество ИИ» – международный обзор (2020)ekonomist.kz.
- Право.ru: «Нейросети против авторского права: кто кого» – обзор споров об обучении ИИ на контенте.
- Ekonomist.kz: «ИИ и авторское право: новые вызовы» – сравнительный анализ по странам (2023).
- HighTech плюс: Суд в Китае защитил копирайтом статью, написанную ИИ (дело Tencent Dreamwriter, 2020).
- Supersnimki.ru: Суд в Китае: изображения ИИ имеют авторские права (Чаншу, 2023).
- Forbes.ru: «Суд взыскал компенсацию за использование чужого видео с дипфейком» – кейс Roistat (2023).
- East Asia Forum: Обзор мер Южной Кореи против дипфейков (2023).
(Дополнительные источники: пресс-релизы Европарламента по AI Act, тексты законов штатов США (CA AB-602, AB-730), WIPO 자료 по кейсу DABUS, материалы судов США по Thaler v. Perlmutter, решения ЕСПЧ по свободе выражения vs приватность в контексте изображений и др.)