Найти в Дзене

Шокирующий способ, как ИИ крадет ваши деньги – и как это остановить!

Представьте: вы на видеозвонке с финансовым директором вашей компании. Он просит срочно перевести $25 млн на секретную сделку. Голос, лицо, манера говорить – всё как настоящее. Вы выполняете перевод, а потом узнаёте: это был дипфейк, созданный нейросетью, и деньги ушли мошенникам. Это не сценарий фильма, а реальная афера, случившаяся в Гонконге в 2024 году. В 2025 году такие схемы бьют рекорды: только за первые три месяца дипфейк-мошенничества унесли $200 млн. Но это лишь один способ, как ИИ крадёт деньги. Хотите узнать, какие ещё уловки используют мошенники и как не стать их жертвой? Погнали! Дипфейки – это когда ИИ подделывает видео или голос так, что отличить фейк от реальности почти невозможно. В том самом гонконгском случае мошенники создали дипфейк финансового директора и других сотрудников. Финансовый работник поверил, что участвует в настоящем видеозвонке, и перевёл $25 млн. Обман вскрылся, только когда он связался с головным офисом. А теперь представьте: в 2025 году дипфейки с
Оглавление

Представьте: вы на видеозвонке с финансовым директором вашей компании. Он просит срочно перевести $25 млн на секретную сделку. Голос, лицо, манера говорить – всё как настоящее. Вы выполняете перевод, а потом узнаёте: это был дипфейк, созданный нейросетью, и деньги ушли мошенникам. Это не сценарий фильма, а реальная афера, случившаяся в Гонконге в 2024 году. В 2025 году такие схемы бьют рекорды: только за первые три месяца дипфейк-мошенничества унесли $200 млн. Но это лишь один способ, как ИИ крадёт деньги. Хотите узнать, какие ещё уловки используют мошенники и как не стать их жертвой? Погнали!

Дипфейки: когда ваш босс – не ваш босс

Дипфейки – это когда ИИ подделывает видео или голос так, что отличить фейк от реальности почти невозможно. В том самом гонконгском случае мошенники создали дипфейк финансового директора и других сотрудников. Финансовый работник поверил, что участвует в настоящем видеозвонке, и перевёл $25 млн. Обман вскрылся, только когда он связался с головным офисом. А теперь представьте: в 2025 году дипфейки стали ещё круче. По данным Resemble AI, за первый квартал 2025 года они уже нанесли ущерб на $200 млн, и это не только бизнес, но и обычные люди.

Но подождите, это ещё не всё. Что, если мошенники создают целую личность с нуля?

Синтетические личности: невидимые воры

Синтетические личности – это как фальшивый паспорт, только круче. Мошенники берут реальные данные, например, номер соцстрахования, и смешивают их с выдуманными именами и адресами. Получается новая «личность», которая открывает кредитные карты, берёт займы и исчезает, оставляя банки с миллиардными убытками. По прогнозам Datos Insights, в 2025 году такие аферы с необеспеченными кредитами в США принесут убытки на $2,94 млрд. Experian подтверждает: в 2025 году синтетическое мошенничество достигло рекордных масштабов, потому что ИИ делает эти фейковые личности всё более убедительными. Проблема в том, что такие «люди» могут годами строить кредитную историю, и никто не заподозрит неладное.

Но это ещё не конец. Есть и другие способы, которыми ИИ обчищает кошельки.

Фишинг и социальная инженерия: ИИ знает вас лучше, чем вы думаете

ИИ не только подделывает лица, но и пишет письма, от которых мурашки. Представьте: вам приходит email, будто от вашего банка, с вашим именем, деталями счёта и просьбой подтвердить транзакцию. Всё выглядит идеально, но это фишинг, созданный нейросетью. ИИ анализирует ваши соцсети, посты, лайки и создаёт сообщения, которые бьют точно в цель. По данным FBI, в 2024 году такие схемы, включая социальную инженерию и фишинг, стали глобальной проблемой . А в 2025 году мошенники автоматизируют атаки, используя ИИ для поиска уязвимостей в секунды. Это как если бы хакер знал все ваши слабости.

Так как же не попасться на эти уловки?

Как остановить ИИ-мошенников

Хорошая новость: вы можете защититься, если знаете, что делать. Вот несколько проверенных способов:

  1. Многофакторная аутентификация (MFA): Настройте двухэтапную проверку для всех финансовых операций – пароль, код из SMS или биометрия. Это спасает даже от дипфейков.
  2. Проверяйте через другие каналы: Получили странный запрос на перевод? Позвоните человеку или свяжитесь с офисом напрямую. В гонконгском случае это спасло бы $25 млн.
  3. Обучайте сотрудников: Учите команду распознавать фишинг и дипфейки. Скептицизм – ваш лучший друг
  4. Используйте ИИ для защиты: ИИ может не только атаковать, но и защищать. Инструменты на базе машинного обучения выявляют подозрительные транзакции в реальном времени. В 2024 году Минфин США с помощью ИИ предотвратил мошенничество на $4 млрд
  5. Обновляйте системы: Регулярно обновляйте софт и антивирусы, чтобы закрыть уязвимости.
  6. Улучшайте проверку личности: Используйте биометрию и анализ поведения, чтобы остановить синтетические личности

Но это только начало. Хотите быть на шаг впереди мошенников?

В итоге

Нейросети – это как огонь: они могут согреть, а могут и сжечь. Дипфейки, синтетические личности и фишинг, созданные ИИ, уже украли миллионы, и в 2025 году угрозы только растут. Но вы не беспомощны. С правильными мерами – от многофакторной аутентификации до ИИ-защиты – вы можете обезопасить свои деньги и данные. Хотите глубже разобраться в нейросетях и научиться использовать их без риска?

Подписывайтесь на наш
Telegram-канал клуба ГОСТ, где мы делимся бесплатными уроками по ИИ и безопасности. Присоединяйтесь и станьте профи в мире технологий!