Найти в Дзене

Почему видеозвонок от «родственника» или «начальника» может лишить вас сбережений

Мы привыкли считать, что лучше один раз увидеть, чем сто раз услышать. Долгие годы видеосвязь была гарантом того, что мы общаемся именно с тем человеком, за которого он себя выдает. Если вы видите лицо собеседника в WhatsApp или Telegram, MAX значит, все в порядке. К сожалению, в 2025 году это правило больше не работает. Технологии шагнули так далеко, что отличить живого человека от его цифровой копии (дипфейка) стало практически невозможно даже для экспертов. На днях эту серьезную проблему поднял академик РАН Арутюн Аветисян, выступая на IV международной конференции «Цифровые международные отношения 2025». Ученый признался: мошенники пытались звонить сотрудникам от его имени, используя его лицо и голос. Качество подделки было настолько высоким, что даже сам оригинал мог бы в нее поверить. Давайте разберемся, что происходит, почему это опасно для каждого из нас и, главное, как защитить себя и свои финансы. Дипфейк (от англ. deep learning - «глубинное обучение» и fake - «подделка») - эт
Оглавление

Мы привыкли считать, что лучше один раз увидеть, чем сто раз услышать. Долгие годы видеосвязь была гарантом того, что мы общаемся именно с тем человеком, за которого он себя выдает. Если вы видите лицо собеседника в WhatsApp или Telegram, MAX значит, все в порядке.

К сожалению, в 2025 году это правило больше не работает. Технологии шагнули так далеко, что отличить живого человека от его цифровой копии (дипфейка) стало практически невозможно даже для экспертов.

На днях эту серьезную проблему поднял академик РАН Арутюн Аветисян, выступая на IV международной конференции «Цифровые международные отношения 2025». Ученый признался: мошенники пытались звонить сотрудникам от его имени, используя его лицо и голос. Качество подделки было настолько высоким, что даже сам оригинал мог бы в нее поверить.

Давайте разберемся, что происходит, почему это опасно для каждого из нас и, главное, как защитить себя и свои финансы.

Что такое дипфейк и почему это касается всех

Дипфейк (от англ. deep learning - «глубинное обучение» и fake - «подделка») - это методика синтеза изображения или голоса, основанная на искусственном интеллекте. Программа анализирует фотографии и видео реального человека, а затем создает его «цифровую маску».

Эту маску можно надеть на другого человека в режиме реального времени. Мошенник сидит перед камерой, гримасничает и говорит, а на вашем экране отображается лицо вашего начальника, коллеги или близкого родственника, который с той же мимикой произносит слова злоумышленника.

Если раньше такие технологии были дорогими и сложными, то сейчас они доступны практически любому. И это создает огромные риски.

Печальный урок на 25 миллионов долларов

Академик Аветисян привел хрестоматийный пример, который произошел еще два года назад, но до сих пор поражает воображение.

Сотрудник крупной транснациональной компании в Гонконге получил приглашение на видеоконференцию от лондонского руководства. Он подключился к звонку и увидел на экране финансового директора компании и других коллег. Люди были знакомыми, голоса - родными. Они обсудили рабочие вопросы, после чего «директор» попросил совершить секретный перевод средств.

Сотрудник, не заподозрив подвоха, перевел 25 миллионов долларов (более 2 миллиардов рублей) на счета мошенников.

В чем был ужас ситуации?
Вся видеоконференция была спектаклем одного актера (или группы хакеров). Все участники звонка, кроме самой жертвы, были дипфейками. Искусственный интеллект сгенерировал изображения и голоса нескольких людей одновременно, заставив сотрудника поверить в происходящее.

Арутюн Аветисян подчеркивает:

  • Мы живем в мире, где больше не можем безоговорочно доверять своим органам чувств.

Новые правила безопасности: «верификатор»

Эксперт уверен: проблему нельзя пускать на самотек. В сфере бизнеса и крупных финансовых операций необходимы жесткие регламенты.

Академик предлагает ввести роль «человека-верификатора». Это специальный сотрудник или доверенное лицо, которое по независимым каналам подтверждает подлинность звонка.

  • Если речь идет о переводе крупной суммы или принятии судьбоносного решения, нельзя полагаться только на экран монитора.
  • Нужен звонок по обычному телефону или личная встреча для подтверждения: «Да, это действительно был я, и я отдал такое распоряжение».

Как защититься обычному человеку?

Вы можете подумать: «Где я, и где миллионы долларов в Гонконге». Однако мошенники используют те же технологии для обмана обычных граждан.

Уже зафиксированы случаи, когда людям звонят «дети» или «внуки» по видеосвязи с просьбой срочно перевести деньги на «безопасный счет» или для «решения проблем с полицией». Подделывают и голоса начальников, требующих от бухгалтеров срочно оплатить счета.

Вот 5 простых правил цифровой гигиены от экспертов по кибербезопасности:

  1. Не верьте глазам своим. Если вам звонят по видеосвязи с незнакомого номера (или даже со знакомого, но аккаунт могли взломать) и просят о деньгах - это «красный флаг».
  2. Задавайте проверочные вопросы. Дипфейк отлично копирует внешность, но мошенник, который им управляет, не знает личных деталей. Спросите: «А помнишь, какого цвета была скатерть на юбилее у тети Вали?» или «Как мы назвали ту бездомную кошку на даче?». Злоумышленник растеряется или начнет уходить от ответа.
  3. Придумайте «кодовое слово». Договоритесь с самыми близкими людьми о секретном слове или фразе. Если звонит сын и просит денег, попросите его назвать пароль. Это самый надежный способ защиты на сегодня.
  4. Перезвоните. Если «начальник» по видеосвязи требует срочных действий, сбросьте звонок и наберите его по обычному мобильному номеру. Скорее всего, реальный руководитель очень удивится вашему вопросу.
  5. Обращайте внимание на детали. Технологии несовершенны. Иногда цифровая маска «сползает», если человек резко поворачивает голову или проводит рукой перед лицом. Неестественное моргание (или его отсутствие), странные тени или «плавающий» контур лица должны вас насторожить.

Право на правду

Академик РАН затронул и важный этический момент. Мы имеем право знать, что именно мы смотрим.

  • Я, как свободный человек, хочу смотреть то, что я хочу. Но я должен быть защищен от обмана, - заявил Аветисян.

Необходимо вводить обязательную маркировку контента. Если видео создано нейросетью, на нем должна быть крупная, заметная плашка: «Сгенерировано ИИ». Это поможет людям сразу включать критическое мышление и не воспринимать увиденное за чистую монету.

Итог

Технологии - это инструмент. В руках врача или инженера они приносят пользу, в руках преступника - становятся оружием. Наша задача - не паниковать, а адаптироваться.

В 2025 году здоровая подозрительность становится залогом финансового благополучия. Если от вас требуют денег или личных данных, не стесняйтесь перепроверять информацию. Лучше показаться недоверчивым, чем потерять свои сбережения из-за красивой картинки на экране.