Найти в Дзене
ПрессНадзор

Не говори со мною, мама: нейросети стали подделывать наши голоса. Как противостоять?

Иллюстрация сгенерирована Яндексом GPT
Иллюстрация сгенерирована Яндексом GPT

Все что вы скажите, будет использовано против вас… Вот именно так надо привыкать относиться к телефонным разговорам сегодня. И это не перебор! Волна мошенничества, связанная с клонированием голоса, охватила уже и Россию...

Да как так?

Например недавно в подмосковье мошенники выдали себя за бабушку с помощью ее фейк-голоса. "Бабушка" сообщила внучке, что якобы попала в ДТП и ей грозит арест, если сейчас же не заплатить 300 тысяч рублей…

В общем, схема стара как мир. С той только разницей, что повелась на нее повелась не бабушка (как это обычно бывает), а внучка, которая наверняка в курсе этого «классического» развода. И объяснила она это тем, что «бабушкин» голос и даже интонации были один в один. Ну как тут не поверить и не помочь?..

Такая «ювелирная» подделка стала возможной благодаря нейро-технологиям. Хакерам достаточно всего лишь 20-секундного фрагмента вашего голоса, чтобы создать звуковой клон. Ну и наговорить с его помощью от вашего имени все, что угодно… Включая, например, согласие на ненужные вам автоплатежи и так далее.

Увы, дошло…

Первые сигналы о применении технологии искусственного интеллекта в мошеннических схемах по телефону поступили от западных экспертов в 2022-ом году. А в начале этого года подобные случаи стали фиксироваться и в российских городах.

Схемы мошенничества остаются прежними, однако инструменты становятся все более продвинутыми. Сегодня любой человек, у которого есть смартфон и деньги на счету, является потенциальной жертвой аферистов. И это, увы, не фантастика.

Не говорите «с кем попало»

Для того, что бы завладеть вашим голосом, мошенники могут предложить пройти к примеру «благотворительный опрос» по телефону. Типа вам это ничего не стоит, но очень поможет несчастным кошечкам, собакам, а то и деткам…

Получив «образец» голоса, они загоняют его в спецпрограмму, с помощью которой и звонят потом родным. Ведь каждый из нас теперь добровольно рассказывает в соцсетях о себе, о своих родных (с фото), детях, местах частого прибывания и т.д. И разумеется все это тоже может использоваться в криминальной "работе».

И что теперь делать?

Есть несколько признаков, которые могут помочь вам определить, что голос является синтетически подделанным:

1. Что-что? Синтетический голос может говорить предельно простыми предложениями или слишком однообразно. Если появились сомнения - попросите звонящего развить свою мысль.

2. Ты сам-то понял, что сказал? Необычные акценты или произношение: синтетический голос может произносить слова или фразы неправильно или с необычным акцентом, которого не характерно для носителей языка.

3. Не по теме! В некоторых случаях, синтетический голос может содержать смысловые искажения, которые не присущи настоящему обладателю голоса.

4. В смысле? Отсутствие человеческой реакции на простейшие вопросы или комментарии. Мошенники, использующие синтетический голос, часто следуют сценарию и не реагируют на вопросы или комментарии собеседника.

5. С чего это вдруг? Неожиданные предложения. Например, голос предлагает поиграть в лотерею, хотя его истинный владелец никогда этим не увлекался.

6. Вась, ответь пожалуйста… Сегодня многие телефоны и даже просто тарифы имеют функцию «голосовой секретарь», которая стала актуальной как никогда. Поставьте ее на все неизвестные входящие. Реальные люди обаятельно оставят свое голосовое сообщение, ведь им скрывать нечего…

7. Я тебя зафиксировал. Не ленитесь вовремя вносить все новые реальные контакты в базу устройства. Это для того, что бы поменьше отвечать на неизвестные звонки, ведь все нужные контакты у вас будут отражаться еще на стадии дозвона.

8. Как зовут нашего кота?

Как и прежде особенно уязвимыми группами становятся пожилые люди и подростки. Именно с ними сегодня важно провести беседу каждому. И, например, вместе придумать кодовое слово, чтобы быть уверенными, что звонит родственник или знакомый. Важно не поддаваться эмоциям и сразу же перезвонить своим близким и знакомым, от которых, якобы, поступила срочная или тревожная просьба.

Не скачивайте, если...

Иллюстрация сгенерирована Яндексом GPT
Иллюстрация сгенерирована Яндексом GPT

Еще один канал для мошенников – наши собственные эксперименты с нейросетями. Многие закачивают их на телефоны и другие гаджеты, даже не подозревая на что те способны оказавшись «рядышком» с мобильным банком. Или опять же динамиком в телефоне для сбора образцов не только вашего голоса, но и звонящих вам детей, супругов, родственников…

Отличить полезные нейросети от вредоносных может быть непросто, но существуют некоторые признаки, на которые нужно обратить внимание:

1. Прежде чем скачивать - проверьте, кто разработал данную нейросеть. Если она из списка ниже, то ничего страшного вам скорее всего не грозит.

2. Безопасность и конфиденциальность: Убедитесь, что при загрузке нейросеть сама обеспечивает необходимые меры безопасности и защиты данных.

3. Вредоносные нейросети могут использоваться для кражи информации или нанесения вреда компьютерной системе. Поэтому всегда используйте антивирусное программное обеспечение и брандмауэры, чтобы минимизировать эти угрозы.

Существует множество компаний, которые официально занимаются созданием нейросетей. Вот некоторые из них, включая компании в России:

1. Google (США)

2. Microsoft (США)

3. Facebook (США)

4. OpenAI (США)

5. Amazon (США)

6. IBM (США)

7. Nvidia (США)

8. Baidu (Китай)

9. Alibaba (Китай)

10. Tencent (Китай)

11. Huawei (Китай)

12. Yandex (Россия)

13. Sber (Россия)

14. Rostelecom (Россия)

15. Mail.ru Group (Россия)

Что еще полезного на этом канале?