Добавить в корзинуПозвонить
Найти в Дзене
RosCo | Consulting & audit

Генерация контента с помощью искусственного интеллекта: есть ли риски?

Генерация контента с использованием искусственного интеллекта предоставляет множество возможностей, однако она также связана с рядом рисков. Вместе с юристами компании "РосКо" разбираемся подробнее в этих нюансах.
Один из главных рисков ИИ связан с этикой. «Моральные» алгоритмы ИИ часто оказываются бессильными против приемов реверсивной психологии и социального инжиниринга. Роботы берут информацию из открытых источников: гарантировать достоверность сведений невозможно. С этим связана проблема распространения фейков. Пользователь нейросети может разместить недостоверные сведения в интернете, которые «завирусятся». Следующая версия ИИ возьмет за основу ранее размещенные данные и продолжит вводить людей в заблуждение. Следующая проблема связана с определением авторских прав на произведения, сгенерированные нейросетями. Единого мнения о том, кто является правообладателем (нейросеть, авторы первоисточников или человек, задавший параметры для генерации контента), нет. Также как и нет ответ
Оглавление

Генерация контента с использованием искусственного интеллекта предоставляет множество возможностей, однако она также связана с рядом рисков. Вместе с юристами компании "РосКо" разбираемся подробнее в этих нюансах.

Какие риски несет в себе генерация контента при помощи ИИ?

Один из главных рисков ИИ связан с этикой. «Моральные» алгоритмы ИИ часто оказываются бессильными против приемов реверсивной психологии и социального инжиниринга.

Роботы берут информацию из открытых источников: гарантировать достоверность сведений невозможно. С этим связана проблема распространения фейков.

Пользователь нейросети может разместить недостоверные сведения в интернете, которые «завирусятся». Следующая версия ИИ возьмет за основу ранее размещенные данные и продолжит вводить людей в заблуждение.

Следующая проблема связана с определением авторских прав на произведения, сгенерированные нейросетями. Единого мнения о том, кто является правообладателем (нейросеть, авторы первоисточников или человек, задавший параметры для генерации контента), нет. Также как и нет ответа на вопрос, кто должен отвечать за причинение ущерба третьим лицам за некачественный контент.

В каких сферах эта проблема стоит особенно остро?

Сфера применения ИИ обширна: медицина, промышленность, машиностроение, образование и другие. Риск возникает там, где робот принимает решения, от которых зависит жизнь и здоровье людей. По данным экспертов, ИИ будет создавать до 90% контента уже к 2026 году.

К счастью, в нашей стране технологии еще не получили такого развития. В России ИИ в основном используется для автоматизации рутинных задач. По данным АЦ «Авито» чаще всего с помощью ИИ создают тексты и изображения. Риски пока что можно контролировать.

Какие еще случаи, аналогичные кейсу из примера, вам известны?

ChatGPT не является ИИ в чистом виде, а скорее речевой моделью. Но даже он способен врать. Нейросеть чуть не сломала жизнь профессору юриспруденции Джонатану Терли. Коллега профессора направил в ChatGPT запрос о предоставлении списка правоведов, пойманных на сексуальных домогательствах. Имя Терли было в этом списке с весьма пикантными подробностями. Данные являлись ложью.

Следующий случай связан с доведением собеседника нейросети до самоубийства. Житель Бельгии делился с чат-ботом «Элиза» (Eliza) своими переживаниями и однажды затронул тему суицида. ИИ написал, что после этого они «будут жить в раю как единое целое». Мужчина покончил собой.

Нейросети не только могут придумать компромат на человека или стать последним собеседником в его жизни, но и давать опасные советы. Специалисты Центра цифровой экспертизы Роскачества зафиксировали жалобы на ошибки в алгоритмах нейросетей, представляющие угрозу для здоровья граждан.

Примеры вредных советов: добавить в соус клей, чтобы с пиццы не сползла начинка, или употребить небольшие камни при укусе ядовитой змеи, чтобы нейтрализовать действие яда. По мере усовершенствования ИИ ошибки могут стать еще опаснее.

Что может помочь минимизировать подобные риски?

Снизить риски поможет вмешательство человека в процесс генерации контента. Например, копирайтеры часто используют нейросети при написании текстов. В их случае важно тщательно вычитывать тексты и проверять факты.

В сложных сферах, в том числе производственной, ИИ нужно доверять простейшие задачи. Например, систематизацию данных. Выполнение сложных вычислений и других работ, требующих высокой точности результатов, лучше доверить экспертам.

Есть ли сферы, в которых генерация контента при помощи ИИ должна быть запрещена? Если да, то какие?

Запретить ИИ по понятным причинам нужно в критических отраслях. В первую очередь, в обороне и нацбезопасности. Еще одна важная сфера — образование.

Вспоминается случай, когда студент РГГУ защитил диплом, написанный ChatGPT. Уникальность работы составила 82%. Молодой человек защитил диплом на тройку.

После этого в вузе выпустили пресс-релиз с предложением ограничить доступ к ChatGPT. Ведущие вузы Японии и ряда стран уже ввели подобные ограничения.

Как подобный запрет может быть реализован на практике?

Ограничить развитие ИИ полностью могут только разработчики подобных решений. Нужно акцентировать внимание не на полном запрете технологий, а на неадекватном подходе к их использованию.

Контролировать распространение нейросетей можно путем разработки принципов работы с ИИ и внесения дополнений в Цифровой кодекс. В ЕС в марте 2024 года приняли закон, регулирующий разработку ИИ. В других странах, в том числе в России, ведутся обсуждения профильных инициатив.

Многие проблемы, связанные с нейросетями, относятся к этике. Яркий пример — дипфейки. С этим предстоит разобраться разработчики цифровых решений.