Искусственный интеллект перестал быть лишь инструментом программистов и перешёл в арсенал преступников. В 2025 году ИИ помогает не только создавать музыку и тексты, но и масштабировать обман, делая его убедительным и почти неотличимым от реальности. Дипфейки, синтез речи и генерация видео — уже не футуризм, а работающие схемы в руках мошенников. 📌 Как ИИ стал частью мошеннических схем Дипфейки: лицо, которое вам знакомо
С помощью нейросетей создаются поддельные видео с участием знаменитостей, политиков или ваших знакомых. Их «голосом» просят перевести деньги, участвовать в сборе, пройти «верификацию».
Подробнее: 👉 Мошенничество с инвестициями: как не попасть на уловки аферистов Пример: фейковый Zoom-звонок от «руководителя», где его лицо в видео и голос были полностью синтезированы. Сотрудник компании перевёл 180 000 ₽ на «новый счёт». Голосовые фейки (voice spoofing)
Алгоритмы синтезируют голос человека на основе короткой записи. Мошенники звонят «от имени сына/начальника/друга»