Всем привет!
Наверно некоторые уже видели ролики на которых исторические личности говорят про вещи о которых они не могли знать в свое время или слышали истории как мошенники притворялись известными личностями или знакомыми и родными для выманивания денег. Все это результат применения технологии дипфейк и сегодня я хочу порассуждать и рассказать вам о ней.
Поехали!
Дипфейки
И начать я предлагаю с того чтобы разобраться что это за зверь и с чем его едят.
Дипфейк — это технология, основанная на методах машинного обучения и искусственного интеллекта, позволяющая создавать реалистичные подделки изображений, аудиозаписей и видеоматериалов.
Основная цель дипфейков — изменить внешность, голос или поведение реального человека на цифровых материалах настолько правдоподобно, что неподготовленному зрителю трудно отличить фальсификацию от оригинала.
Технология работает примерно так: сначала происходит сбор большого количества исходных данных (фотографий, видеозаписей, аудиофайлов) нужного лица или голоса. После этого происходит обучение нейронной сети, которая учится имитировать черты внешности, мимику, речь конкретного человека. Задаем задачу имитации что говорить, как говорить формат результата. И на выходе получаем фото, видео или аудио материал, практически неотличимый от настоящего.
Сейчас уже дипфейки используют массмедиа и рекламе. Это между прочим подняло волну возмущения среди актеров озвучки, компании записывали голоса актеров, а потом бесплатно использовали их голос во множестве различных проектов, даже не уведомляя самих актеров.
Но более опасно, что дипфейки стали использовать как манипулятивный инструмент в политике (фальсификация высказываний лидеров государств, провокационная дезинформация), корпоративных войнах (к примеру создание высказывания руководителя конкурирующей организации, для обрушения стоимости их акций) и в мошеннических схемах.
Примеры инцидентов с дипфейками
- Начнем с первой известной атаки с использованием дипфейка в 2019 году. Как в классическом случае корпоративного вымогательства, генеральный директор энергетической фирмы получил телефонный звонок якобы от своего босса. На самом деле, это был поддельный голос, сгенерированный искусственным интеллектом, но на слух это невозможно было определить, поэтому генеральный директор спокойно выполнил его поручение о переводе 243 000 долларов США в течение часа.
- В 2020 году произошел еще один инцидент с мошенничеством с использованием дипфейка, который затронул банк в Гонконге в 2020 году. Менеджеру позвонил «директор компании» с просьбой об авторизации перевода, так как компания собирается совершить поглощение. Дополнительно он получил электронное письмо подписанное директором и юристом, которое выглядело как настоящее, но и документ, и голос были фейковыми. Менеджер осуществил перевод. Следователи смогли отследить украденные средства и выяснили, что в мошенничестве было задействовано 17 человек.
- В 2024 году в Южной Корее мошенник похитил у женщины 70 млн вон (около $50 000), используя дипфейк основателя Tesla Илона Маска. Фальшивый Маск написал женщине, которая была поклонницей бизнесмена. Кореянка сначала не поверила, но злоумышленник убедил ее, прислав фото удостоверения личности и несколько снимков с работы. В какой-то момент они решили связаться по видео. Тогда мошенник сказал ей, что любит ее. Во время видеозвонка мошенник использовал дипфейк, притворяясь Маском, после этого у девушек не осталось сомнений – с ней действительно связался сам Маск. Фейковый Илон Маск обещал сделать девушку богатой для этого она перевела на счет якобы корейского партнера Маска около 70 млн вон, для инвестиций. После чего фейковый Маск исчез с радаров.
- 9 февраля 2025 года стало известно о том, что телефонные мошенники использовали инструменты искусственного интеллекта для создания дипфейков министра обороны Италии Гвидо Крозетто и других чиновников. Применяя синтезированные голоса, злоумышленники выманили деньги у ряда итальянских предпринимателей и миллиардеров.
- В июне 2025 года стало известно о появлении в России новой схемы мошенничества, связанной с использованием дипфейков. Злоумышленники звонят гражданам под видом проведения соцопросов и записывают голосовые ответы для дальнейшего подделывания личности.
Способы распознать дипфейк
Пока организации внедряют системы анализа медиаконтента на предмет достоверности, внедряют метаданные и водяные знаки для подтверждения оригинальности контента, силовики ведут борьбу с изготовителями и распространителями опасных дипфейков, нарушающими законы различных стран нам важно понять как самим защититься от таких атак. И для того, чтобы защититься для начала надо распознать обман. И поможет в этом, конечно, внимательность и критичность мышления:
Вот, некоторые приемы которые могут помочь определить дипфейк:
- Обратите внимание на участки, где освещение или тени кажутся необычными или некорректными.
- Смотрите на реакцию других людей (если они есть в кадре) на говорящего. Врятли обычный прохожий не свернет шею увидев знаменитость.
- Реакция тела и выражение лица должны соответствовать эмоциям и словам говорящего.
- Обычно дипфейки демонстрируют ненормально низкую частоту моргания, ошибаются в цвете радужки глаза или ее цвет меняется в течении времени.
- Произнесенные слова и движения губ не синхронизированы между собой, к при задержке видео или дублировании иностранного фильма.
- Роботизированный тон голоса или безэмоциональное декларирование текста
- Также смотрите на качество аудио или видео, бывает что его специально ухудшают чтобы скрыть изъяны за шумами.
И конечно не забывайте про автоматизацию. Многие современные сервисы предоставляют бесплатные инструменты для самостоятельного анализа видео и изображений на предмет наличия признаков дипфейка. Для примера Один из таких инструментов — Face Forensic Benchmark, который оценивает степень вероятности, что материал подвергался редактированию.
Советы по защите от дипфейков
Чтобы защитить себя и свои данные от возможного использования в дипфейках, следуйте нескольким рекомендациям:
- Будьте осторожны с публикациями фотографий и видео в социальных сетях,чем больше вы публикуете, тем больше исходных данных для создания качественного дипфейка.
- Используйте надежные программы для хранения ваших фото и видео файлов.
- Постоянно проверяйте свои онлайн-аккаунты на предмет подозрительной активности.
- Осведомляйте близких и коллег о возможностях дипфейков и последствиях их использования.
- Придумайте кодовое слово для верификации между родными и близкими.
- Используйте двухфакторную аутентификацию чтобы не могли воспользоваться вашим дипфейком для получения доступа к вашим аккаунтам.
Вывод
Мы живем в мире где нельзя уже на 100 % доверять новостям, людям с кем ты переписываешься или созваниваешься. С каждым днем нужно становиться более бдительными, злоумышленники ежедневно ищут новые способы для обогащения за счет доверчивых граждан. Помните:
Всегда лучше перебдеть, чем недобдеть.
А на этом у меня сегодня все, берегите себя и свои данные, поставьте лайк если понравился материал. И напишите в комментах что бы вы еще добавили к советам о том как защититься от дипфейков, а пошел формулировать Новые Мысли Starого.
Подписывайтесь на все мои ресурсы:
Если у вас есть мысли, факты, истории, которыми вы хотели бы поделиться, присылайте на почту: stariithinks@gmail.com или stariithinks@yandex.ru
#мыслиstarого #мыслио #ИБ #информационная_безопасность #is #инфобез #deepfake #дипфейк