Несколько исков, один из которых подал New York Times, вскоре могут дать ответ на этот вопрос.
Гэнеративный искусственный интеллект (ИИ) преобразит рабочее место . Международный валютный фонд считает, что инструменты искусственного интеллекта , в том числе те, которые создают текст или изображения на основе письменных подсказок, в конечном итоге повлияют на 40% рабочих мест. Банк Goldman Sachs утверждает, что эта технология может заменить 300 миллионов рабочих мест по всему миру. Скептики говорят, что эти оценки преувеличены . Но некоторые отрасли, похоже, уже ощущают последствия. В документе, опубликованном в августе 2023 года в ssrn , хранилище исследований, которое еще не прошло официальную экспертную оценку, предполагается, что доходы самозанятых «креативщиков» — писателей, иллюстраторов и им подобных — упали с ноября 2022 года, когда ChatGPT, был выпущен популярный инструмент искусственного интеллекта .
За последний год художники, писатели и комики подали иски против технологических компаний, создающих инструменты искусственного интеллекта , включая OpenAI, Microsoft и Anthropic. В делах утверждается, что, используя материалы, защищенные авторским правом, для обучения своих моделей ии , технологические компании нарушили права создателей. Имеют ли эти претензии основания?
Генераторы искусственного интеллекта переводят письменные запросы — например, «нарисуйте линию горизонта Нью-Йорка в стиле Винсента Ван Гога» — в машиночитаемые команды. Модели обучаются на огромных базах данных текста, изображений, аудио или видео. Во многих случаях технологические компании, похоже, без разрешения удалили большую часть материалов из Интернета. В 2022 году Дэвид Хольц, основатель Midjourney, одного из самых популярных генераторов изображений с использованием искусственного интеллекта , признал, что его инструмент собрал 100 миллионов изображений, не зная, откуда они взялись, и не запрашивая разрешения у их владельцев.
Предполагается, что генераторы производят новую продукцию, и на этом основании разработчики ии утверждают, что то, что производят их инструменты, не нарушает авторские права. Они полагаются на «доктрину добросовестного использования», которая позволяет использовать материалы, защищенные авторским правом, при определенных обстоятельствах. Эта доктрина обычно защищает журналистов, преподавателей, исследователей и других лиц, когда они используют короткие выдержки из материалов, защищенных авторским правом, в своей работе, например, в рецензии на книгу. инструменты искусственного интеллекта не имеют права на такую защиту, считают творческие люди, поскольку они, по сути, поглощают и перестраивают работу, защищенную авторским правом, а не просто извлекают из нее небольшие фрагменты.
Генеративный искусственный интеллект настолько нов, что практически не существует прецедентного права, которым можно было бы руководствоваться в судах. Поэтому исход этих дел трудно предугадать. Некоторые наблюдатели полагают, что многие коллективные иски против компаний, занимающихся искусственным интеллектом , вероятно, потерпят неудачу. Андрес Гуадамуз, эксперт по праву интеллектуальной собственности из Университета Сассекса, считает, что сила доктрины добросовестного использования, вероятно, превзойдет опасения истцов.
За одним случаем будут следить особенно внимательно. 27 декабря газета New York Times подала в суд на Microsoft и OpenAI после провала переговоров. В нем утверждается, что технологические компании задолжали «миллиарды долларов» за использование работ, защищенных авторским правом, для обучения ChatGPT. Юристы газеты продемонстрировали множество примеров того, как ChatGPT слово в слово воспроизводит журналистику New York Times . Это показывает, что инструменты ИИ существенно не преобразуют материал, на котором они обучаются, и поэтому не защищены доктриной добросовестного использования, утверждают они.
8 января OpenAI ответила, заявив, что не сделала ничего плохого. Инструменты генеративного искусственного интеллекта — это технологии сопоставления с образцом, которые записывают ответы, предсказывая наиболее вероятное следующее слово на основе того, чему они были обучены. Как и в других случаях подобного рода, OpenAI заявляет, что это подпадает под добросовестное использование. Он утверждает, что New York Times преувеличивает риск «срыгивания», виня в котором ошибка, которая приводит к ошибкам лишь изредка. В заявлении, поданном 26 февраля, OpenAI заявила, что газета New York Times тщательно отобрала ответы из «десятков тысяч» запросов, которые она отправила чат-боту. Некоторые из них были «обманчивыми подсказками», которые нарушали условия использования, утверждается в нем.
Креативщики обеспокоены тем, что если суды вынесут решение в пользу компаний, занимающихся искусственным интеллектом , их инструменты заменят человеческое творчество. Но разработчики говорят, что альтернатива хуже: если бы им пришлось прекратить обучение на данных, защищенных авторским правом, продвинутых моделей ИИ не существовало бы. Есть третий путь, который г-н Гуадамуз считает наиболее вероятным исходом дела New York Times : разработчикам ии, возможно, придется платить за лицензирование обучающих данных, защищенных авторским правом. Каким бы ни был исход, подобные судебные процессы будут определять будущее технологий.