Найти тему
Реальное время

«Сделано с помощью ИИ»: нужна ли метка для искусственного интеллекта?

Оглавление

В Госдуме задумались, как обезопасить страну от вредоносного контента, созданного нейросетями

Несет ли искусственный интеллект угрозу появления огромного массива непроверенной информации, и как фильтровать контент, созданный ИИ, — задумались депутаты Госдумы. Спасения от потенциальной угрозы пока нет. Возможно, Россия пойдет по пути западных стран, обязав технологических гигантов самостоятельно маркировать созданный нейросетями контент. В целом делать это надо, согласились эксперты, но аккуратно, чтобы не затормозить развитие передовых технологий. Что думают о законодательной инициативе министр цифрового развития и его виртуальный помощник АйратAI, созданный на основе ChatGPT, — в материале «Реального времени».

Искусственный интеллект немного ограничат

В Госдуме приступили к разработке законопроекта о маркировке созданного нейросетью контента. Идею еще год назад озвучили в Российском технологическом университете. Как сообщил член комитета Госдумы по информполитике Антон Немкин, депутаты изучают законодательный опыт других стран по поводу маркировки и консультируются с экспертами. По мнению парламентария, в настоящий момент человеку становится сложно отличать реальное от нереального.

— Если рассматривать отдаленную перспективу, то развитие ИИ-сервисов без необходимого контроля несет опасность появления огромных массивов не только никем не проверенных текстов, но и даже полностью выдуманных фактов, цифр и данных, — цитирует его РИА «Новости».

Депутат заявил, что поначалу следует обязать российские ИИ-сервисы автоматически маркировать любые сгенерированные тексты. Это связано с тем, что пока непонятно, как распознавать степень участия машины и искусственного интеллекта в материале.

-2

По пути технологических лидеров

По этому пути уже пошли в США. В июле 2023 года Белый дом объявил о соглашении с крупнейшими американскими технологическими компаниями о внедрении дополнительных мер безопасности в области ИИ. Среди ключевых мер — разработка системы водяных знаков для идентификации контента, созданного с помощью ИИ, что является частью борьбы с дезинформацией и другими рисками, связанными с этой быстро развивающейся технологией.

Cемь крупнейших компаний в области ИИ — Amazon, Anthropic, Google, Inflection, Meta (признана экстремистской и запрещена в РФ), Microsoft и OpenAI — добровольно приняли на себя дополнительные обязательства. В рамках соглашения американские техногиганты должны разработать и внедрить систему водяных знаков для визуального и аудиоконтента.

Американская корпорация Meta уже сообщила, что маркировать ИИ-контент будут в принадлежащих компании приложениях Facebook*, Threads и Instagram*. Ставить пометку «Сделано с помощью ИИ» смогут как пользователи, так и сама компания, если обнаружит признаки работы нейросетей. Ранее Meta запрещала ролики со сгенерированными людьми, если они в видео делали что-то, чего не делали в жизни.

С 18 марта авторы контента на YouTube обязаны помечать свои видеоролики, созданные при помощи искусственного интеллекта. Требование касается только реалистичного контента, который может ввести в заблуждение. Платформа не требует от авторов помечать явно нереалистичный контент, созданный при помощи ИИ. К нему относятся анимация, регулировка цвета или светофильтры, спецэффекты, фильтры красоты или другие визуальные улучшения.

«Важно тщательно проработать детали»

-3
«С другой стороны, важно также учитывать потенциальные вызовы и риски, связанные с маркировкой, — добавляет министр. — Например, что произойдет с контентом, созданным совместно человеком и нейросетью? Как будет определяться, что является достаточным вкладом человека, чтобы контент не считался созданным нейросетью? Будет ли маркировка применяться к контенту, созданному для личных целей, или только к контенту, связанному с коммерческими целями?».

Глава Минцифры Татарстана считает, что законопроект о маркировке контента, созданного нейросетями, может быть полезным, но важно тщательно прорабатывать детали его реализации, чтобы не ставить излишние барьеры перед инновациями и научным прогрессом.

Сам Айрат Хайруллин считает технологию искусственного интеллекта, скорее, помощником, нежели угрозой для людей. В феврале прошлого года министр представил бесплатный чат-бот на базе искусственного интеллекта под названием АйратAI. По словам министра, он создан в помощь студентам и школьникам — для получения подсказок или поиска теоретической информации; журналистам или создателям контента — для создания контент-плана, подсказки идеи статей или написания пресс-релизов; программистам — для поисков ошибок в коде; всем тем, кому нужен совет в поиске интересной книги, фильма или выставки.

«Я не имею личного мнения, но могу сказать»

Мы поинтересовались у АйратAI, что он думает о маркировке созданного нейросетями контента.

-4
Сегодня маркировка контента, созданного нейросетями, в основном проводится в странах, где приняты законы и правила в области искусственного интеллекта и автоматизированного контента, рассказал АйратAI. Например, такие меры могут приниматься в США, Европейском союзе, Японии, Южной Корее и других странах, которые располагают развитой технологической инфраструктурой и работают над регулированием использования искусственного интеллекта в различных областях.

Проникновение нейросетей в России АйратAI оценивает как быстрое и успешное. «С каждым годом все больше компаний в России начинают использовать нейронные сети в различных областях, таких как медицина, финансы, технологии, маркетинг и другие. Это позволяет им автоматизировать процессы, повысить эффективность и качество своей работы», — отметил бот.

Искусственный интеллект может потенциально представлять угрозу для людей, если он используется неправильно или неэтично, согласился виртуальный помощник министра. «Например, автономные системы AI военного назначения могут привести к увеличению военных конфликтов и потерям жизней. Также существует опасность использования AI для массового контроля и наблюдения, что может угрожать приватности и свободе граждан», — привел он пример.

«Однако при правильном использовании искусственный интеллект может принести огромные выгоды людям, помогая решать сложные проблемы в медицине, науке, бизнесе и других областях. Важно разрабатывать и использовать AI с соблюдением этических норм и законов, чтобы минимизировать потенциальные угрозы и максимизировать пользу для общества», — резюмировал он.

Технологический предприниматель, инвестор и сооснователь компании «Технократия» Булат Ганиев считает, что подобная маркировка — верное решение.

-5

«Заманчиво, но малореализуемо»

«Маркировка созданного нейросетью контента выглядит заманчиво, но практически малореализуемо, — считает Василь Закиев, сооснователь компании «Спутник», экс-руководитель проектов бизнес-инкубатора казанского и челябинского ИТ-парков. — Уже сейчас профессионально созданный ИИ контент не отличим от реального, а мы находимся на самой ранней стадии развития технологии».

-6
«Вместо дорогих и лобовых ограничений правительству лучше сосредоточить усилия на повышении общественной осведомленности о возможностях и рисках ИИ, способствуя ответственности разработчиков ИИ-технологий. Это поможет достичь сбалансированного подхода к инновациям и безопасности, избегая негативного влияния на технологическое развитие», — предлагает предприниматель.

Его комментарий, в частности, был создан с использованием ИИ, добавил Василь. «Стал ли он от этого хуже? Не думаю, — отметил Закиев. — Иллюстрация в Instagram (признана экстремистской и запрещена в РФ) не становится хуже от использования фильтров».

*Деятельность ресурсов признана экстремистской и запрещена в России.

Спасибо за внимание!

БОЛЬШЕ ИНТЕРЕСНЫХ СТАТЕЙ И СВЕЖИХ НОВОСТЕЙ НА КАНАЛЕ "Реального времени"

Еще материалы на канале: Маркировка созданного нейросетью контента: как это будет выглядеть и кем уже применяется