Ввести обязательную маркировку контента, созданного с помощью искусственного интеллекта, предлагают в России. А ещё – установить уголовную ответственность за распространение дипфейков без согласия изображённого человека. Насколько реально будет промаркировать ИИ-контент и как оценивают эту инициативу эксперты – в материале Добро.Медиа.
Разработкой закона об обязательной маркировке ИИ-контента занимаются Минцифры, Роскомнадзор и другие профильные ведомства. Такими мерами хотят бороться с цифровой подменой фото- и видеоизображений людей (ИИ-дипфейками), защищать пользователей от недостоверной информации и мошенников.
За ИИ-дипфейки в Институте социально-экономического анализа и программ развития (ИСАПР) уже предлагали ввести штрафы, аналогичные тем, что грозят за незаконную обработку персональных данных. Напомним, они составляют от 10 тысяч до 15 тысяч рублей для обычных россиян, от 50 тысяч до 100 тысяч рублей – для должностных лиц и от 150 тысяч до 300 тысяч рублей – для юрлиц. А теперь намерены ввести и уголовную ответственность, если дипфейки причинили человеку вред.
Читайте также:
С мошенниками нельзя общаться даже в шутку. И вот почему: три причины
Проблема в том, что на сегодня не существует единого понятийного аппарата. Это значит, что нет юридических терминов «дипфейк», «искусственный интеллект» и «синтетический контент». В Минцифры сейчас заняты разработкой такой терминологии.
Поможет ли маркировка поймать ИИ-мошенников
Гарантированного способа отличить промаркированный ИИ-контент от немаркированного пока нет. Об этом говорит директор Института социально-экономического анализа и программ развития Андрей Шуриков. Но можно выявлять значительную часть такого контента: есть сервисы, которые умеют проверять видео и изображения на предмет использования ИИ.
Михаил Копнин, директор департамента IT DCLogic, не видит смысла маркировать весь контент, созданный с помощью нейросетей. К примеру, для большинства пользователей не принципиально, что маршрут в навигаторе построен алгоритмами ИИ. А что касается борьбы со злонамеренным использованием ИИ, маркировка вряд ли будет эффективной. Те, кто создаёт ИИ-дипфейки и другой вредоносный контент, правила соблюдать не будут.
Директор проектов Minerva Result в компании Minervasoft Денис Кучеров считает, что механизмы маркирования обязательно нужно применять в медиапространстве. Но важно, чтобы это была не просто маркировка ИИ-контента, а системный фактчекинг.
Читайте также:
ИИ в медиа: как нейросети помогают создавать контент в 2025 году?
Андрей Шуриков уверен, что обязательная маркировка повысит не только уровень отслеживаемости вредоносного контента, но и ответственность людей, использующих ИИ. Технически отследить первоисточник дипфейка сложно, но распространителей выявлять можно без труда, считает он.
ИИ-контент есть, а правовое регулирование отсутствует
Инициатива введения маркировки ИИ-контента имеет своё законное место и обоснование, как морально-этическое, так и правовое, уверена юрист, специалист по авторскому праву Анастасия Черкасова.
В первую очередь, пользователи имеют право знать, что контент создан не человеком, имеющим соответствующие образование, опыт и знания в определенной сфере, а нейросетью.
«Маркировка даёт понять, что в контенте отсутствует (или частично отсутствует) творческий труд – есть только набор технических алгоритмов. Да, это может быть красиво, полезно и просто, но творческий труд автора это никогда не заменит. Это в принципе совершенно разные способы создания контента», – прокомментировала Добро.Медиа Анастасия Черкасова.
По её мнению, изменения в первую очередь коснутся СМИ. С точки зрения «Закона об информации» и «Закона о рекламе» обязательная маркировка позволит защитить потребителей от недостоверной информации. А её может быть много: ИИ собирает данные из разных неконтролируемых источников, вероятность ошибок огромна. Именно поэтому весь ИИ-контент нужно проверять. Маркировка также поможет соблюсти все положения части 4 ГК РФ «Авторское право».
«Что касается проблем, связанных с внедрением такой маркировки, я бы отметила применение закона на практике и вопрос доказывания при возникновении споров. В такой сфере отследить использование ИИ-технологий может быть затруднительно, зачастую это возможно только при участии хороших ИТ-специалистов, – говорит юрист. – Ещё один важный вопрос – определение ответственного лица. Кто это – создатель ИИ-контента или распространитель?»
Чтобы маркировка ИИ-контента стала обязательной, потребуется внести изменения в Гражданский кодекс, в законы «Об информации», «О рекламе», «О защите детей от информации, причиняющей вред».
«Полностью все проблемы это не решит, но правовое регулирование в этой сфере необходимо, поскольку само явление – ИИ-контент – есть, а правовое регулирование отсутствует в принципе», – резюмирует Анастасия Черкасова.
Ранее мы писали, как мошенники используют ИИ для атаки на фанатов Сарика Андреасяна.