Добавить в корзинуПозвонить
Найти в Дзене
НейроРуководство

Тёмная сторона нейросетей: как ИИ стал оружием хакеров. Дипфейки, фишинг и шантаж.

Привет, друг! 👋 Представь: твой начальник звонит по видео и просит срочно перевести деньги на «безопасный счёт». Ты видишь его лицо, слышишь голос — всё как обычно. Но через час выясняется, что это был не он, а нейросеть. Звучит как сюжет из «Чёрного зеркала»? Увы, это уже реальность. ИИ, который создаёт музыку и рисует картины, теперь используют для взломов, шантажа и фишинга. Давай разберёмся, как алгоритмы стали инструментом преступников — и как не стать их жертвой. Дипфейки — это поддельные видео или аудио, созданные ИИ. Раньше их делали только для мемов, но теперь мошенники используют их для кражи денег. Например, в ОАЭ сотрудник компании перевёл $35 млн на счета злоумышленников, поверив видео с «руководителем», чей голос и лицо сгенерировал ИИ . Как это работает: Злоумышленники скачивают фото и видео жертвы из соцсетей, а нейросети вроде ChatGPT создают реалистичный голос. Алгоритмы типа DeepFaceLab «оживляют» лицо, и видео рассылают через мессенджеры с просьбой о срочной
Оглавление

Привет, друг! 👋 Представь: твой начальник звонит по видео и просит срочно перевести деньги на «безопасный счёт». Ты видишь его лицо, слышишь голос — всё как обычно. Но через час выясняется, что это был не он, а нейросеть. Звучит как сюжет из «Чёрного зеркала»? Увы, это уже реальность. ИИ, который создаёт музыку и рисует картины, теперь используют для взломов, шантажа и фишинга. Давай разберёмся, как алгоритмы стали инструментом преступников — и как не стать их жертвой.

1. Deepfake-мошенничество: когда нейросеть крадёт лица

Дипфейки — это поддельные видео или аудио, созданные ИИ. Раньше их делали только для мемов, но теперь мошенники используют их для кражи денег. Например, в ОАЭ сотрудник компании перевёл $35 млн на счета злоумышленников, поверив видео с «руководителем», чей голос и лицо сгенерировал ИИ .

-2

Как это работает:

Злоумышленники скачивают фото и видео жертвы из соцсетей, а нейросети вроде ChatGPT создают реалистичный голос. Алгоритмы типа DeepFaceLab «оживляют» лицо, и видео рассылают через мессенджеры с просьбой о срочной помощи: «Попал в ДТП», «Уволили с работы», «Нужны деньги на лечение».

Экспертный комментарий:

Дипфейки стали настолько качественными, что даже правоохранительные органы не всегда могут отличить подделку

отмечает Владислав Тушканов из «Лаборатории Касперского» .

Совет:

Если получили подозрительное видео, задайте отправителю личный вопрос, который знаете только вы. Например: «Как звали нашу первую учительницу?» .

2. Фишинг 2.0: как ChatGPT пишет идеальные письма для хакеров

Что изменилось:

Раньше фишинговые письма легко вычисляли по ошибкам: «Ургентно! Обновите пароль!!!». Теперь ChatGPT генерирует тексты без опечаток, с правильной грамматикой и даже упоминает законы вашей страны. В Сингапуре нейросеть создала письма с конверсией кликов на 30% выше, чем у «человеческих» аналогов .

Пример атаки:

Хакеры просят ChatGPT написать письмо от HR компании с предложением получить подарочную карту Starbucks. ИИ добавляет срочность: «Акция действует только 24 часа!» — и вставляет фишинговую ссылку. Получатели, привыкшие к кричащим заголовкам, не замечают подвоха и кликают на ссылку, думая, что получат бесплатный кофе.

Статистика:

В 2024 году 60% сотрудников крупных компаний кликали на фишинговые письма от ИИ — столько же, сколько и на рукописные.

ИИ снижает стоимость фишинга на 95%, делая его массовым и персонализированным

говорит Фредрик Хейдинг, автор исследования о киберугрозах .

3. Кейсы из реальной жизни: куда ведут «идеальные» атаки

Случай 1: Вишинг с голосом Илона Маска

Мошенники создали видео, где «Илон Маск» рекламирует фейковую криптобиржу. Жертвы переводили деньги, думая, что инвестируют в Tesla .

Случай 2: Фейковые счета ресторанов

ChatGPT 4o научился генерировать поддельные чеки с QR-кодами. Пользователи сканируют их и попадают на фишинговые сайты .

Случай 3: Взлом через собеседование

Кандидат на работу использовал дипфейк, чтобы скрыть лицо. На видео его «голова» не совпадала с движениями шеи, что и выдало подделку .

4. Как защититься? Советы экспертов

1. Проверяйте источники. Даже если письмо идеально — зайдите на сайт компании вручную, а не по ссылке.

2. Включите двухфакторную аутентификацию. Это спасёт, даже если мошенники узнают пароль.

3. Не публикуйте в соцсетях лишнее. Фото документов, голосовые сообщения — всё это сырьё для дипфейков.

4. Используйте «кодовые слова» с близкими. Например, фраза «Эглоу, Нью-Йорк» в письме подтвердит, что это не ИИ .

5. Установите антифишинговые расширения. Например, инструменты на базе ИИ, которые анализируют стиль писем.

Заключение:

ИИ — как нож: может нарезать хлеб, а может стать оружием. Как мы уже писали в статье [«Автономные автомобили: между технологическим прорывом и этическими рисками»], технологии не решают моральных дилемм за нас. Пока законы и алгоритмы защиты отстают, наша главная броня — критическое мышление. Помните: нейросети не умеют сопереживать. Если в сообщении слишком много пафоса и срочности — это повод нажать «Удалить».

Полезные ссылки:

1. [Как распознать дипфейк]— гайд от Банка России.

2. [Тест на уязвимость к фишингу] — проверь свою бдительность.

P.S. А вы сталкивались с ИИ-мошенничеством? 💬 Делитесь историями в комментариях — и подписывайтесь на наш Telegram-канал «Код: Перезагрузка», где мы разбираем, как нейросети меняют мир🌐.