Представьте ситуацию: вы получаете сообщение от руководителя вашей компании, который просит перевести крупную сумму денег. Видео выглядит абсолютно правдоподобно – он говорит с вашим знакомым голосом, его мимика и выражения лица выглядят естественно, даже родинка на щеке на месте. Через какое-то время оказывается, что это было не настоящие видео, а дипфейк – подделка, созданная с помощью нейросетей. Это не фантастика, а реальность, которую мы уже наблюдаем. Сделать подобное можно буквально за 15 минут с помощью современных технологий. Подпишись на наш телеграм, чтобы быть в курсе событий: https://t.me/astralot_ai Дипфейки представляют собой новый уровень мошенничества. Теперь преступники могут взламывать системы банковской аутентификации, используя синтезированные голоса руководителей. К тому же у искусства появились новые границы – мертвые актеры могут “возродиться” на экране, а создание дубляжей сокращается с месяцев до считанных часов. Наконец, маркетологи могут задействовать цифров
Готовься к шоку: Deepfakes стали настолько реальными, что это пугает!
4 мая 20254 мая 2025
3 мин