Мошенники не стоят на месте и все чаще используют в своих схемах дипфейки. Успешность новых атак оценивают в 15–20%, но, как утверждают эксперты, это далеко не предел. Со временем дипфейки будут применять более активно, а благодаря повышению их качества вычислить обман станет еще сложнее. Подробнее — в материале ОТР.
Число атак с дипфейками растет
В России выросло число атак мошенников с использованием дипфейков — технологии обработки контента, которая подменяет лицо и голос человека с помощью искусственного интеллекта, сообщили «Известия».
Злоумышленники создают реалистичное видеоизображение человека или голосовое сообщение и рассылают по контактам. Как правило, дипфейк «рассказывает» о своей болезни, увольнении или о том, что попал в ДТП, после чего просит перевести денег на счет.
«Расчет на то, что потенциальная жертва, услышав голос близкого человека и увидев его изображение, начнет паниковать, переживать и в состоянии шока выполнит просьбу», – пояснил начальник отдела информационной безопасности банка «Хлынов» Андрей Попов.
Всего есть два основных направления в атаках с дипфейками. Первое из них используется в корпоративной среде. Работает схема примерно так: в общий рабочий чат поступает сообщение от «шефа», а затем туда же отправляются реквизиты счета, куда надо отправить деньги. По словам управляющего RTM Group, эксперта в области кибербезопасности и права Евгения Царева, такая уловка рассчитана на представителей финансового сектора, ассистентов руководителя, менеджеров по работе с клиентами.
Второе направление — видеодипфейк со скандальными высказываниями или недопустимым поведением. Его отправляют потенциальной жертве и требуют выкуп. Эта уловка отлично работает после корпоративов или масштабных праздников, после которых работники компаний не всегда помнят, что они делали, добавил Царев.
Дальше — хуже
Пока киберпреступники только изучают эту технологию, но со временем объемы мошенничества с использованием дипфейков, прогнозируют эксперты, увеличатся. Бум таких сценариев ожидают уже в следующем году. Будут массово использоваться не только опробованные схемы, но и новые, пока широко неизвестные людям.
Директор центра противодействия мошенничеству компании «Информзащита» Павел Коваленко рассказал, что мошенники уже активно «пополняют базу». В частности, они стали чаще покупать записи голосов и готовы платить за них от 300 рублей до пяти тысяч.
Это говорит о том, что в будущем россиян ждут звонки от «знакомых» и «родственников», которые попали в беду. А идеальная схожесть ИИ с голосом контакта даже не вызовет подозрений, отмечают специалисты.
«Адресно применять генеративные модели ИИ злоумышленники будут продолжать все активнее. Поэтому не стоит вести с ними диалога даже в шутку — известны случаи, когда полученные таким образом образцы голоса использовались в подделках для атак на знакомых первой жертвы», – сказал директор по стратегическим альянсам и взаимодействию с органами государственной власти группы компаний «Гарда» Павел Кузнецов.
Как защититься от дипфейков
Эксперты предупреждают: определить фейковость ролика, изображения или голосового сообщения можно только путем тщательного анализа материала. Так, пользователя должны насторожить неестественное движение губ, отсутствие мимики, дефекты в изображении, помехи в голосе и очень стройная речь.
Чтобы убедиться, что перед вами реальный человек, а не дипфейк, надо попросить собеседника на камеру покрутить головой из стороны в сторону, поднести руки к лицу. Нелишним будет и внезапный вопрос, ответ на который будет не самым очевидным.
«Злоумышленники могут использовать элементы неожиданности, когда в состоянии стресса нет времени и возможности изучать неточности и шероховатости на видео. Поэтому в таких ситуациях стоит взять паузу и прервать разговор, – посоветовал руководитель проектов Центра цифровых технологий управления Института информационных систем ГУУ Андрей Стариковский.
Лучше не доверять внезапным звонкам, особенно если на той стороне провода просят перевести деньги. Рекомендуется подтвердить информацию у источника: позвонить или написать ему лично.