Ответы на отзывы: как AI-мошенники украли $17 млрд и почему антивирусы бессильны
Кибербезопасность 8 мин чтения
82-летний врач в Москве потерял 4 миллиона рублей после видеозвонка с «Собяниным». Голос мэра звучал естественно, мимика была живой, манеры - один в один с оригиналом. Антивирус на компьютере врача молчал, потому что атака велась не через вредоносный код, а через человеческое доверие.
Мир кибермошенничества переживает трансформацию. За прошлый год преступники, использующие искусственный интеллект, увеличили свои доходы. Общий ущерб от сетевого мошенничества превысил $16 миллиардов по всему миру. В России ситуация тревожная: технологии дешевеют с каждым днем, и под угрозой оказываются миллионы людей - каждый, у кого есть лицо, голос и профиль в социальных сетях.
Ваш антивирус оказывается бесполезным в этой битве. Он ищет вирусы и троянские программы, а мошенники атакуют через психологию и эмоции.
Когда технологии работают против нас
Искусственный интеллект может создать цифрового двойника любого человека буквально за несколько минут. Все особенности речи, интонации, мимика - воспроизводятся с точностью. Это уже не спецэффекты для голливудских блокбастеров - это товар на черном рынке, цена которого стремительно падает.
Тот самый московский врач - заслуженный специалист с безупречной репутацией - получил экстренный звонок «из мэрии Москвы». На экране появился Сергей Собянин. Голос звучал естественно, мимика была живой и убедительной. Мэр объяснил, что врача подозревают в финансировании украинской армии, и для срочной проверки необходимо снять 4 миллиона рублей наличными. Врач выполнил требование и передал деньги курьеру. Только потом выяснилось, что это был дипфейк.
Подобные случаи происходят по всему миру. Компания Arup в Гонконге перевела мошенникам $25 миллионов после видеозвонка с поддельным финансовым директором. Эксперты прогнозируют, что к концу года количество дипфейков в интернете может достичь 8 миллионов. Это уже не редкое явление, а массовая угроза.
Как работают схемы обмана
Создание голосового клона требует всего 3-5 минут публичной речи человека. Источником может стать любое видео с YouTube или корпоративная презентация. Нейросеть анализирует и точно копирует тембр голоса, интонации, региональные акценты. После этого система может произнести любой текст голосом жертвы.
Видеоподмена в режиме реального времени работает еще более впечатляюще. Через обычную веб-камеру на лицо актера накладывается изображение другого человека. Система синхронизирует движения губ с синтезированной речью. Результат - «живой» собеседник, который отвечает на вопросы и ведет диалог.
Стоимость таких технологий снижается каждый месяц. Скоро они станут доступны любому желающему.
Демократизация киберпреступности
Раньше, чтобы стать хакером, требовались годы изучения программирования и сетевых технологий. Сегодня достаточно $200 в месяц на подписку в даркнете. FraudGPT и WormGPT - это чат-боты без этических ограничений, созданные для мошеннических целей. Они делают киберпреступность доступной даже школьникам.
Эти системы умеют:
- Создавать персонализированные фишинговые письма, анализируя профили жертв в социальных сетях
- Генерировать вредоносный код по простому описанию на обычном языке
- Обходить защитные фильтры банков и почтовых сервисов
- Вести диалог с потенциальными жертвами в реальном времени
В России ситуация критическая. По данным Роскомнадзора, в прошлом году было заблокировано более 119 тысяч фишинговых сайтов - это рост на 441% по сравнению с предыдущим годом. За многими из них стоят не люди, а алгоритмы.
Как искусственный интеллект изучает ваши слабости
Нейросеть может собрать информацию о человеке за пять минут, используя только открытые источники. Система не только определяет университет и места, которые посещал человек, но и вычисляет примерный график рабочих смен, анализируя геотеги за три месяца. При этом никакого взлома не требуется - только публичная информация.
AI-системы способны:
- Парсить все социальные сети, форумы и чаты
- Анализировать фотографии, лайки, репосты и списки друзей
- Строить социальный граф людей
- Создавать психологический портрет и подбирать идеальную приманку
Реальный пример: человеку приходит сообщение от «друга»: «Привет! Помнишь, мы обсуждали поездку в Сочи? Вот скидка на тот отель, о котором говорили». Человек действительно месяц назад оставлял комментарий: «Мечтаю съездить в Сочи». ИИ нашел эту информацию и использовал ее. Ссылка вела на фишинговый сайт.
Схемы в мире криптовалют
По данным правоохранительных органов, общий ущерб от сетевого мошенничества превысил $16 миллиардов в год. Схемы с использованием ИИ приносят больше дохода, поскольку они точнее и убедительнее традиционных методов.
Популярные схемы включают:
- Поддельную техподдержку, где ИИ-бот притворяется сотрудником Binance или MetaMask
- Дипфейк-видео с Павлом Дуровым или Виталиком Бутериным, рекламирующими мошеннические проекты
- Координированные атаки тысяч ботов для создания хайпа вокруг токенов
Тренд - возврат к наличным деньгам. Мошенники все чаще просят снимать деньги и передавать курьерам, чтобы обойти системы фрод-мониторинга банков.
Почему антивирусы бессильны
Традиционные антивирусные программы ищут вредоносный код в файлах и программах. ИИ-мошенничество работает на другом уровне - человеческого доверия.
Видеозвонок с дипфейком руководителя технически является обычным видеопотоком. Персонализированное сообщение от «друга» - это текст в мессенджере. Фишинговое письмо без вложений - чистая переписка. SMS с просьбой снять наличные - легитимное сообщение.
Мошенники атакуют не устройства, а людей. По данным Positive Technologies, до 75% кибератак в ближайшем будущем могут использовать искусственный интеллект.
Правила защиты, которые заменят десяток антивирусов
1. Правило двух каналов
Кто бы ни просил денег или конфиденциальных данных - всегда перепроверяйте через независимый канал связи. Начальник пишет в WhatsApp? Позвоните ему на рабочий номер. Родственник просит помощи в Telegram? Наберите его обычный телефон.
2. Ловушка для дипфейка
Задавайте личные вопросы, ответов на которые нет в интернете. «Как звали нашего первого кота?», «Какой пароль был от Wi-Fi на старой квартире?». Дипфейк не сможет ответить или начнет уклоняться.
3. Цифровая гигиена в соцсетях
Закройте старые посты с геотегами, уберите из открытого доступа информацию о работе и распорядке дня. После очистки профиля ВКонтакте количество спама в личных сообщениях может сократиться вдвое.
4. Семейное кодовое слово
Договоритесь с близкими о секретном слове для подтверждения личности в критических ситуациях.
5. Двухфакторная аутентификация
Используйте приложения-аутентификаторы вместо SMS. СМС можно перехватить через SIM-своппинг.
6. Тщательная проверка ссылок
Всегда проверяйте реальные адреса ссылок. binаnce.com с русской буквой «а» - это не официальный binance.com.
Защита бизнеса от AI-мошенничества
В нашей компании мы помогаем бизнесу защищаться от угроз, включая ИИ-мошенничество. Мы предлагаем комплексные решения по кибербезопасности, обучение сотрудников распознаванию схем обмана и настройку систем защиты, которые учитывают специфику AI-атак. Наши эксперты регулярно анализируют тренды в киберпреступности и адаптируют методы защиты под актуальные угрозы.
Что нас ждет дальше
Прогнозы экспертов вызывают обеспокоенность. Positive Technologies прогнозирует рост успешных кибератак на 30-35%. Россия остается одной из наиболее атакуемых стран, на нее приходится 14-16% всех мировых кибератак и 72% атак в странах СНГ.
Эра, когда достаточно было установить антивирус и чувствовать себя в безопасности, закончилась. Теперь защита - это ваша осведомленность и здоровая паранойя. В мире, где ИИ может подделать любого человека, доверие становится роскошью, которую нужно тщательно дозировать.