Мошенники уже научились генерировать фотографии и видео с людьми с помощью нейросетей, чтобы манипулировать пользователями.
Сегодня развиваем критическое мышление и учимся отличать дипфейк от реального изображения.
Дипфейк (deepfake, от англ. deep learning, «глубокое обучение» + fake, «подделка») — это технология создания убедительно выглядящих видео или аудио. Сегодня это делается с помощью искусственного интеллекта.
Странные движения
Нейросеть ещё не научилась воспроизводить естественное моргание глаз и плавные движения. Если у человека на видео двигается только рот, это первый маркер дипфейка.
Мелкие детали
Обратите внимание на волосы, зубы и руки: нейросеть часто создает размытые черты, неправильно располагает конечности и рисует неестественные пряди. Пальцы — все еще сложная задача для нейросети. Она знает, как выглядят пальцы, но на каком нужно остановиться — не всегда.
Качество видео
Мошенники часто пытаются скрыть дефекты за низким качеством видео. Мы живём в 2024 году. Снять видео в плохом разрешении можно только специально.
Эффект «зловещей долины»
Как это? Изображение похоже на человека, но что-то не то. Положитесь на свои ощущения. Часто дипфейки вызывают тревогу, страх или отвращение.
Если сомневаетесь
ИИ-технологии быстро развиваются, поэтому распознать дипфейк на глаз становится все сложнее. Если сомневаетесь в изображении, используйте специальные программы распознавания.