Добавить в корзинуПозвонить
Найти в Дзене
Антон Горелкин

Сможет ли маркировка защитить от дипфейков?

Проблему дипфейков обсудили на форуме в МГТУ им. Баумана – вместе с коллегами из Минцифры, АНО «Диалог Регионы», ФГУП ГРЧЦ и других организаций, заинтересованных в защите граждан от противоправного использования технологий искусственного интеллекта. Вспомнили мировой опыт борьбы с дипфейками, который сводится к двум основным мерам: это выявление ИИ-контента при помощи специального ПО и его маркировка. Российские цифровые платформы такой подход не приветствуют. Представители соцсетей и видеохостингов переживают за пользовательский опыт, ведь проверка контента даже с помощью самых продвинутых систем детекции будет занимать время. Обязанность платформ выявлять дипфейки фактически переведет их в режим тотальной премодерации – с учетом того, сколько единиц контента загружают пользователи каждую минуту, и ежедневно растущего присутствия в нем ИИ-генераций. Поэтому предложил коллегам подумать над идеей, о которой уже здесь рассказывал: маркировать не ИИ-контент, а те ролики и изображения, кот

Проблему дипфейков обсудили на форуме в МГТУ им. Баумана – вместе с коллегами из Минцифры, АНО «Диалог Регионы», ФГУП ГРЧЦ и других организаций, заинтересованных в защите граждан от противоправного использования технологий искусственного интеллекта. Вспомнили мировой опыт борьбы с дипфейками, который сводится к двум основным мерам: это выявление ИИ-контента при помощи специального ПО и его маркировка.

Российские цифровые платформы такой подход не приветствуют. Представители соцсетей и видеохостингов переживают за пользовательский опыт, ведь проверка контента даже с помощью самых продвинутых систем детекции будет занимать время. Обязанность платформ выявлять дипфейки фактически переведет их в режим тотальной премодерации – с учетом того, сколько единиц контента загружают пользователи каждую минуту, и ежедневно растущего присутствия в нем ИИ-генераций.

Поэтому предложил коллегам подумать над идеей, о которой уже здесь рассказывал: маркировать не ИИ-контент, а те ролики и изображения, которые были полностью созданы человеком, без использования нейрогенерации. Считаю, что наши платформы должны дать возможность авторам такого контента ставить специальный значок. И, возможно, лишь в этом случае проводить премодерацию и проверку на ИИ. В таком случае весь остальной, немаркированный контент будет считаться небезопасным по умолчанию.

А что думаете вы? Напишите в комментариях.