Привет, друг! 👋 Представь: твой начальник звонит по видео и просит срочно перевести деньги на «безопасный счёт». Ты видишь его лицо, слышишь голос — всё как обычно. Но через час выясняется, что это был не он, а нейросеть. Звучит как сюжет из «Чёрного зеркала»? Увы, это уже реальность. ИИ, который создаёт музыку и рисует картины, теперь используют для взломов, шантажа и фишинга. Давай разберёмся, как алгоритмы стали инструментом преступников — и как не стать их жертвой. Дипфейки — это поддельные видео или аудио, созданные ИИ. Раньше их делали только для мемов, но теперь мошенники используют их для кражи денег. Например, в ОАЭ сотрудник компании перевёл $35 млн на счета злоумышленников, поверив видео с «руководителем», чей голос и лицо сгенерировал ИИ . Как это работает: Злоумышленники скачивают фото и видео жертвы из соцсетей, а нейросети вроде ChatGPT создают реалистичный голос. Алгоритмы типа DeepFaceLab «оживляют» лицо, и видео рассылают через мессенджеры с просьбой о срочной
Тёмная сторона нейросетей: как ИИ стал оружием хакеров. Дипфейки, фишинг и шантаж.
22 мая 202522 мая 2025
40
3 мин