В современном мире с развитыми технологиями, которые научились успешно использовать преступники в своих целях важно знать, как распознать дипфейк голосового сообщения и изображений.
На данный момент определенной системы или программы распознавания фейков нет, но владение некоторыми знаниями о том, как распознать дипфейк, может спасти данные и деньги пользователей. Об этом в эфире радио "Спутник в Крыму" рассказал эксперт по информационной борьбе Алексей Гладких.
Важные особенности дипфейка в записи
Тем не менее не попасться на удочку мошенников поможет знание некоторых нюансов, которые выдают в дипфейке ложную информацию, сказал Гладких. Таких особенностей две.
"Сама структура такого сообщения, несмотря на то, что это дипфейк, не изменилась и похожа на другие фейки. Она обращается к вашему подсознанию, чтобы вызвать бурю эмоций, чтобы разум отключился, и мы начали переживать", – сказал Гладких.
Кроме того, дипфейк, как правило, призывает к каким-то срочным действиям: что-то делать, куда-то идти, переводить деньги и так далее, добавил эксперт.
При получении информации, которая "вызывает у вас сразу бурю различных эмоций, как правило, негативных", самый правильный путь обезопасить себя – перейти на первоисточник, советует Гладких.
В качестве примера он привел дипфейк о визите председателя Совета Федерации в Севастополь, во время которого, согласно ложному сообщению созданная искусственным интеллектом Валентина Матвиенко сообщила, что Крым – это Украина.
"Если мы говорим о визите Валентины Матвиенко в Крым, то первоисточником его распространения был телеграм-канал с семью всего лишь подписчиками. Давайте обратимся к разуму: можно ли считать его авторитетным источником? Естественно, нет", – сказал Гладких.
Подозрение о том, что это может быть фейк, должно вызывать уже одно то, что источником сенсационной информации является телеграм-канал, отметил он.
"Telegram-канал в принципе не авторитетный источник информации. Лучше доверять официальным СМИ либо официальным аккаунтам представителей властей. Потому что вероятность, что они были взломаны, минимальна, и это единственный проверенный источник информации", – сказал Гладких.
Как обмануть ИИ в реальном времени
Сложнее обстоит дело с дипфейками, которые производятся в режиме реального времени, продолжил эксперт. Например, с аудио- и видеозвонками людям, когда по ту сторону трубки появляются и известные личности, в том числе чиновники, и близкие люди. Технологию сейчас активно взяли на вооружение мошенники из Украины, предупредил Гладких.
По его словам, в случае с видео раскусить обман проще.
"Нейросеть заменяет изображение, полученное с камеры, и между нею и лицом ничего не должно быть. Можно собеседника попросить повертеть головой в разные стороны или поставить руку между лицом и камерой. Либо задать неожиданный вопрос, даже неадекватный, который смутит собеседника", – советует он.
В этом случае изображение "дернется", рассыплется и фейк будет вскрыт.
С измененными аудиосообщениями так не получится. Поэтому если вы, например, в телеграмме слышите знакомый голос, при этом содержание сообщения отвечает ранее перечисленным критериям – не стесняйтесь и перезванивайте, рекомендует специалист.
"Если был взлом аккаунта, нейросеть изменяет голос, копируя его из ранее отправленных вам сообщений в чате, очень правдоподобно. Она будет использовать дружеские обращения и может апеллировать к каким-то темам из вашего общего прошлого. В таком случае человек, конечно, верит. Поэтому перезванивайте, потому что этот звонок мошенники вряд ли перехватят", – заключил эксперт.
По словам Гладких, дипфейки появились еще в 2017 году. Тогда студенты Вашингтонского университета впервые заменили лицо, использовав образ президента Барака Обамы, и подделали его искусственную речь очень качественно.
"И люди поняли, что можно не только менять лица любимых актеров, но и делать различные пранки с политиками. А сейчас, когда технологии стали значительно мощнее, дипфейки все активнее применяются", – сказал Гладких.
Если раньше на замену одного лица в изображении тратились миллионы долларов, то теперь любой человек может скачать приложение в свой телефон и заменить его на видео, отметил он.
Более того: вычислительные мощности современных машин позволяют заменять лица и речь в режиме прямого эфира, добавил он.
"Естественно, что дальше технологии продолжат развиваться, дипфейки станут еще опаснее, и их еще тяжелее будет выявить. Это самая главная проблема. Потому что нет гарантированной системы, как от них спастись. Некачественный фейк будет воздействовать на определенную аудиторию. Но качественный не каждый профессионал сможет выявить", – предупредил эксперт.