👥 Современные дипфейки становятся всё более реалистичными благодаря использованию нескольких нейросетей. Роскачество выделяет главные проблемы распознавания таких образов и рекомендует практические меры цифровой безопасности. Технологии ушли далеко вперёд: мошенники могут позвонить по видеосвязи, используя лицо и голос знакомого человека, и обман будет практически неразличим. Практически невозможно отличить подделку от реальности старыми традиционными методами. Использование нескольких нейросетей и комплексное «скрещивание» данных позволяет создавать очень детализированные и реалистичные digital-образы. Кроме того, многие современные модели строятся на платных нейросетях с высоким качеством генерации — это затрудняет автоматическую идентификацию. При этом дипфейки начинают широко использоваться не только для мошенничества, но и в маркетинге — ИИ-инфлюенсеры законно «ведут» блоги, получают контракты и деньги от подписчиков. Для многих рекламодателей вопрос подлинности уже не критичен —
Распознавание дипфейков: главные трудности и способы защиты по версии Роскачества
3 дня назад3 дня назад
1
1 мин