Добавить в корзинуПозвонить
Найти в Дзене
Инк.

Российским соцсетям могут дать право замораживать вирусные дипфейки

Главный радиочастотный центр Роскомнадзора предложил соцсетям самостоятельно выявлять и ограничивать распространение дипфейков еще до официального подтверждения подлинности контента. Инициативу озвучил заместитель начальника отдела специальных проектов НТЦ ФГУП ГРЧЦ Станислав Махортов на форуме «Технологии доверенного искусственного интеллекта». Речь идет прежде всего о вирусном контенте, который быстро набирает просмотры и распространяется быстрее обычных новостных поводов. По задумке ГРЧЦ, платформы могли бы временно ограничивать распространение таких материалов до подтверждения их подлинности у доверенных источников — например, у организаций или людей, фигурирующих в ролике или аудиозаписи. В Роскомнадзоре пояснили, что обсуждается сразу несколько мер. Среди них — создание базы технологических угроз, развитие систем обмена данными между государством и бизнесом, а также обязательная маркировка ИИ-контента до его публикации. Участники рынка при этом предупреждают, что технически задач

Главный радиочастотный центр Роскомнадзора предложил соцсетям самостоятельно выявлять и ограничивать распространение дипфейков еще до официального подтверждения подлинности контента. Инициативу озвучил заместитель начальника отдела специальных проектов НТЦ ФГУП ГРЧЦ Станислав Махортов на форуме «Технологии доверенного искусственного интеллекта».

  Stanislav Vlasov/Unsplash
Stanislav Vlasov/Unsplash

Речь идет прежде всего о вирусном контенте, который быстро набирает просмотры и распространяется быстрее обычных новостных поводов. По задумке ГРЧЦ, платформы могли бы временно ограничивать распространение таких материалов до подтверждения их подлинности у доверенных источников — например, у организаций или людей, фигурирующих в ролике или аудиозаписи.

В Роскомнадзоре пояснили, что обсуждается сразу несколько мер. Среди них — создание базы технологических угроз, развитие систем обмена данными между государством и бизнесом, а также обязательная маркировка ИИ-контента до его публикации.

Участники рынка при этом предупреждают, что технически задача остается крайне сложной. Представитель одной из крупных ИТ-компаний отметил, что при нынешних объемах видео и изображений в соцсетях стопроцентно определить происхождение контента невозможно. Ошибки при автоматической модерации неизбежны, а значит платформы столкнутся с ростом жалоб и юридических споров.

Эксперты считают, что полностью автоматизировать проверку дипфейков в ближайшее время не получится. Сейчас платформы используют комбинированные методы: анализ изображения и аудио, поиск цифровых водяных знаков, проверку метаданных и отслеживание подозрительного распространения контента. Однако современные генеративные модели быстро учатся обходить такие фильтры.

Читайте также

«Через пару лет вы не отличите дипфейк от оригинала». CEO aIDeepFake — о том, как защититься от новой реальности

Как регулируют дипфейки в ЕС

В Евросоюзе дипфейки уже попали в рамки регулирования AI Act. Статья 50 закона об ИИ обязывает маркировать соответствующий контент и раскрывать факт использования искусственного интеллекта при создании или изменении фото, видео и аудио. Отдельно в документе прописаны требования к дипфейк-контенту и синтетическим публикациям общественной значимости.

Еврокомиссия также разрабатывает отдельный кодекс практики по маркировке ИИ-контента. Предполагается, что он поможет платформам внедрять единые механизмы обнаружения и обозначения дипфейков.

Некоторые страны ЕС идут еще дальше. Например, Испания уже подготовила законопроект с крупными штрафами за публикацию AI-контента без маркировки. Размер санкций может достигать 35 млн евро или 7% глобальной выручки компании.

Читайте также

Тейлор Свифт защитит голос от дипфейков через товарный знак

Что происходит в США

В США единого федерального закона о дипфейках пока нет, однако регулирование постепенно ужесточается. Федеральная торговая комиссия (FTC) еще в 2024 году предложила расширить правила против мошеннической имитации личности — в том числе с использованием ИИ-генерации голоса и видео.

Отдельные штаты уже вводят собственные ограничения — прежде всего в сфере политической рекламы и предвыборных материалов. Крупные платформы также усиливают внутренние правила маркировки ИИ-контента и синтетических медиа на фоне роста числа политических и мошеннических дипфейков.

Эксперты отмечают, что и в ЕС, и в США регуляторы постепенно переходят от обсуждения самих технологий к контролю за распространением контента и ответственности платформ. Но универсального решения проблемы пока не существует. Генеративные модели развиваются быстрее, чем инструменты их обнаружения.

Подпишитесь на «Инк» в Telegram. Там мы пишем нескучным языком о самом важном для предпринимателей. Подписаться.