Проблему дипфейков обсудили на форуме в МГТУ им. Баумана – вместе с коллегами из Минцифры, АНО «Диалог Регионы», ФГУП ГРЧЦ и других организаций, заинтересованных в защите граждан от противоправного использования технологий искусственного интеллекта. Вспомнили мировой опыт борьбы с дипфейками, который сводится к двум основным мерам: это выявление ИИ-контента при помощи специального ПО и его маркировка. Российские цифровые платформы такой подход не приветствуют. Представители соцсетей и видеохостингов переживают за пользовательский опыт, ведь проверка контента даже с помощью самых продвинутых систем детекции будет занимать время. Обязанность платформ выявлять дипфейки фактически переведет их в режим тотальной премодерации – с учетом того, сколько единиц контента загружают пользователи каждую минуту, и ежедневно растущего присутствия в нем ИИ-генераций. Поэтому предложил коллегам подумать над идеей, о которой уже здесь рассказывал: маркировать не ИИ-контент, а те ролики и изображения, кот