Как технологии подмены реальности меняют правила игры и что делать, чтобы защититься
Новые виды социальной инженерии: когда голос начальника — не аргумент
Deepfake-атаки стали инструментом нового поколения мошенников, объединив искусственный интеллект и психологическое манипулирование. Например, в 2019 году злоумышленники использовали поддельный голос «директора» немецкой энергетической компании, чтобы убедить сотрудников перевести €220 тыс. на венгерский счет. Такие атаки часто комбинируются с фишингом: жертва получает письмо, СМС и звонок, где голос «руководителя» подтверждает срочность операции.
Особую опасность представляют BEC-атаки (Business Email Compromise). В 2020 году в Гонконге менеджер банка избежал перевода $35 млн, запросив дополнительное подтверждение после подозрительного звонка с имитацией голоса CEO. Злоумышленники собирают данные из открытых источников — TED-выступлений, корпоративных видео — и обучают нейросети копировать интонации, темп речи и даже паузы.
Технологии детекции: нейросети против нейросетей и блокчейн как щит
Алгоритмы-детекторы
Для выявления deepfake используют те же технологии, что и для их создания. Например, Video Authenticator от Microsoft анализирует артефакты в пикселях, неестественное моргание (в реальности человек моргает 15–17 раз в минуту) или несоответствие теней. Facebook и Microsoft провели конкурс Deepfake Detection Challenge, где лучшая модель достигла точности 65,18%.
Блокчейн для верификации
Глава Galaxy Digital Майк Новограц предложил использовать блокчейн для подтверждения подлинности контента. Технология позволяет фиксировать «цифровые отпечатки» медиафайлов, делая невозможным их незаметное редактирование. Например, сертификация исходного видео в распределенном реестре может стать стандартом для СМИ и соцсетей.
Законодательные инициативы в ЕАЭС: между безопасностью и инновациями
Страны Евразийского экономического союза (ЕАЭС) столкнулись с необходимостью обновить правовые нормы. Анализ законодательства показал, что многие законы устарели и не учитывают риски AI-подделок. Однако в декабре 2023 года ЕЭК завершила обсуждение Положения об обеспечении информационной безопасности, направленного на стандартизацию мер против кибератак, включая deepfake.
Ключевые предложения:
- Создание единой базы для обмена данными о киберугрозах.
- Внедрение обязательной сертификации AI-алгоритмов, используемых в госсекторе.
- Ужесточение ответственности за распространение вредоносного deepfake-контента.
Эксперты подчеркивают: без международного сотрудничества (например, гармонизации законов ЕАЭС и ЕС) эффективная борьба невозможна.
Интересные факты: от политики до Голливуда
- Фейковый Обама. В 2018 году появилось видео, где экс-президент США оскорбляет Дональда Трампа СМОТРЕТЬ. Ролик создали через FakeApp — программу, доступную даже новичкам.
- Робот-Шварценеггер. Российская компания Promobot создала андроида с лицом Арнольда, что привело к судебному иску. Это пример этических проблем AI.
- Взлом Twitter. В 2020 хакеры через социальную инженерию получили доступ к аккаунтам Илона Маска и Барака Обамы, разместив фишинговые посты о «биткоин-раздаче».
Как защититься: советы для бизнеса и пользователей
- Zero Trust. Всегда перепроверяйте запросы на перевод денег — даже если звонок кажется знакомым.
- Обучение сотрудников. Регулярные тренинги по киберграмотности снижают риск успешных атак на 70%.
- Многофакторная аутентификация. Защищает корпоративные аккаунты даже при утечке паролей.
Вывод
Deepfake — это не только технологический вызов, но и тест на зрелость общества. Пока нейросети учатся лучше детектировать подделки, а законодатели разрабатывают новые нормы, каждый пользователь может стать «первой линией обороны».
Подпишитесь на наш канал, чтобы первыми получать инструкции по защите от цифровых угроз и аналитику о будущем кибербезопасности. Будьте бдительны — ваша подпись может спасти репутацию и бюджет!