Найти тему
VK о безопасности

Ваше лицо украли: как защититься от дипфейка?

Оглавление

Мошенники уже научились генерировать фотографии и видео с людьми с помощью нейросетей, чтобы манипулировать пользователями.

Сегодня развиваем критическое мышление и учимся отличать дипфейк от реального изображения.

Дипфейк (deepfake, от англ. deep learning, «глубокое обучение» + fake, «подделка») — это технология создания убедительно выглядящих видео или аудио. Сегодня это делается с помощью искусственного интеллекта.

Странные движения

Нейросеть ещё не научилась воспроизводить естественное моргание глаз и плавные движения. Если у человека на видео двигается только рот, это первый маркер дипфейка.

Мелкие детали

Обратите внимание на волосы, зубы и руки: нейросеть часто создает размытые черты, неправильно располагает конечности и рисует неестественные пряди. Пальцы — все еще сложная задача для нейросети. Она знает, как выглядят пальцы, но на каком нужно остановиться — не всегда.

Качество видео

Мошенники часто пытаются скрыть дефекты за низким качеством видео. Мы живём в 2024 году. Снять видео в плохом разрешении можно только специально.

Эффект «зловещей долины»

Как это? Изображение похоже на человека, но что-то не то. Положитесь на свои ощущения. Часто дипфейки вызывают тревогу, страх или отвращение.

Если сомневаетесь

ИИ-технологии быстро развиваются, поэтому распознать дипфейк на глаз становится все сложнее. Если сомневаетесь в изображении, используйте специальные программы распознавания.

О том, как мошенники научились обманывать с помощью нейросетей, читайте здесь.