Найти тему
Белый Интернет

Дипфейки. Как распознать и не попасться мошенникам

Оглавление
Источник: youtube.com
Источник: youtube.com

Технология дипфейков единогласно признана трендом 2023 года. В исследовании РБК, технология дипфейков отмечается как "фотореалистичное объединение изображений с помощью ИИ": алгоритм анализирует большое количество снимков и учится тому, как может выглядеть и двигаться конкретный человек. Нейросеть собирает из интернета фотографии человека с разными выражениями лица и создает из них новое изображение или видео.

Сам термин deepfake демонстрирует смысл технологии через объединение двух понятий: глубокое обучение [нейросетей] (deep learning) и фальшивка (fake).

Появление первой фейковой фотографии связывают с именем американского президента А. Линкольна, а точнее его фотопортрета, изготовленного уже после смерти президента художником-портретистом Томасом Хиксом. Художник совместил портрет Кэлхуна, написанный на дереве, и голову Линкольна со знаменитого портрета Мэтью Брэйди (портрет попал впоследствии на пятидолларовую банкноту).

-2
На столе у левой руки Кэлхуна лежат бумаги, где можно прочитать фразы: «строгая конституция», «свободная торговля» и «суверенитет штатов». В фейке с Линкольном эти слова были изменены на «конституция», «союз» и «провозглашение свободы».
На столе у левой руки Кэлхуна лежат бумаги, где можно прочитать фразы: «строгая конституция», «свободная торговля» и «суверенитет штатов». В фейке с Линкольном эти слова были изменены на «конституция», «союз» и «провозглашение свободы».


С тех пор, несомненно, технологии ушли далеко вперед. В первой половине 2023 года произошло массовое распространение фейков.
Количество дипфейков выросло на 84% в Великобритании, на 250% в США, и более чем на 300% в Германии и Италии и на 500% во Франции. Случаи мошенничества с идентификацией, вызванные AI, были замечены в Австралии (1300 процентов ), Вьетнаме (1400 процентов ) и Японии ( 2300 процентов ).

Согласно результатам опроса, представленным генеральным директором и соучредителем ID R&D Алексеем Хитровым на вебинаре Biometric Update, 42% компаний или их клиентов уже сталкивались с дипфейковыми атаками.

Две главные причины бешеной популярности дипфейков у интернет-пользователей, политтехнологов, а также мошенников и экстремистов различного толка — относительная легкость создания и сильнейший воздействующий эффект.

Как дипфейки используются в преступных целях?

Риски и угрозы бесконтрольного применения дипфейк-технологий уже стали частью современной реальности. Поскольку стержневая идея любых дипфейков — максимальная реалистичность и правдоподобность, то уже сегодня мы наблюдаем лавинообразный рост модифицированного контента, созданного с целью манипуляции сознанием как отдельно взятого человека, так и общества в целом. С момента появления дипфейков в 2017 году их часто использовали в преступных целях.

Порнография и кибербуллинг
95–96 % всех создаваемых дипфейк-видео — это порнография в том числе с целью мести и/или дискредитации как известных личностей, так и рядовых граждан. Ежедневно официальным либо публичным личностям приходится опровергать те или иные компрометирующие фото или видео.

Эксперт по технологии Генри Аждер приводит конкретные данные: 96% дипфейков в Интернете — порнография, причем в абсолютном большинстве из них используются женские лица и образы. Лица женщин вырезали из фотографий, найденных в сети, и интегрировали в порнографические видео.

Мошенничество и фишинг

Один из самых распространенных и при этом легких дипфейк-способов изъятия денежных средств у населения — запись мошенниками голоса жертвы (главная задача состоит в том, чтобы добиться произнесения ключевых слов, таких как «да»), на основе которой генерируется типовая звуковая дорожка для «общения» с роботом службы поддержки банка. Грамотно синтезированная на базе ключевых фрагментов запись позволяет «достоверно» ответить на все вопросы робота для перевода средств на нужный мошенникам счет.

На днях ЦБ России сообщил, что мошенники стали чаще использовать специальные программы, чтобы подделывать голоса родственников и знакомых своих жертв.

Что делать и как бороться?

В 2021 г. ученые из Университета Буффало разработали алгоритм, который с точностью в 94% вычисляет дипфейки по глазам человека на фотографии. ИИ-система умело определяет естественным ли образом свет отражается на роговице.

Однако следует понимать, что даже при условии взрывного развития и внедрения алгоритмов по обнаружению дипфейков, загруженный пусть и на ограниченное время в сеть синтетический контент вполне способен нанести непоправимый ущерб, так как скорость распространения информации в Интернете сделает свое дело, охватив целевую или как минимум значительную часть аудитории.

По мере развития технологий ИИ мы предвидим ужесточение правил, регулирующих их использование. Растущее использование дипфейков вызвало обеспокоенность по поводу необходимости более прочных правовых рамок для решения таких проблем, как конфиденциальность, защита данных и киберпреступность. Например, вскоре может стать обязательным применение водяных знаков ко всем синтетическим изображениям. Это позволит избавить пользователя от необходимости самостоятельно верифицировать ту или иную запись, но и тут существуют сложности, которые препятствуют отнесению цифрового «водяного знака» к разряду идеального инструмента борьбы с дипфейками. Во-первых, эта технология должна быть запущена на многих цифровых устройствах, имеющих возможность генерировать, просматривать и слушать контент. Во-вторых, использование цифрового «водяного знака» должно быть предварительным условием для загрузки контента на наиболее популярные цифровые платформы. Тем не менее, мошенники будут постоянно искать пути преодоления ограничений.

Ряд стран уже предпринимают меры по ограничению распространения фейков. В Китае такие ролики маркируются, в некоторых штатах США, например в Калифорнии, запрещено распространять дипфейки с политиками перед выборами. Во Франции ввели санкции за монтаж речи или изображения человека без его согласия. В ответ на вирусное дипфейковое видео с участием популярной индийской актрисы Рашмики Манданны правительство Индии указало на правовые положения, регулирующие такие дипфейки, и связанные с ними наказания.

Доверяй, но проверяй

Источник: Pinterest
Источник: Pinterest

Если с методами противодействия вредоносным дипфейкам в технологической и юридической плоскости все более-менее понятно, то что может предпринять рядовой гражданин для того, чтобы не стать объектом сторонней манипуляции?

Советы для пользователей, как распознать фейк

1. Обращайте внимание, где размещено видео/фото, на каком ресурсе и как оно распространяется (через официальные каналы либо через массовые рассылки в мессенджерах или социальных сетях).

2. Включите внутреннего скептика и не доверяйте сомнительным и непроверенным ресурсам. Особенно критически отнеситесь к любым неожиданно щедрым предложениям, исходящим от известных личностей.

3. Доверьтесь интуиции. Если вас смутила мимика или жесты героя фейка, то возможно у вас возник эффект «зловещей долины» (от англ. uncanny valley), выражающийся в появлении тревоги и неприязни к происходящему. Наше тело, в отличие от разума, нас редко обманывает и к его сигналам тоже имеет смысл прислушиваться.

4. Попробуйте "перепроверить" новость на других достоверных источниках и официальных ресурсах. Например, если в видео от имени официального лица сообщается о новых льготах или пособиях, утвержденных Правительством, и предлагается пройти по ссылке для ее оформления, для начала зайдите на официальный ресурс самостоятельно и убедитесь в подлинности иинформации.

5. Не заполняйте персональные данные и не переходите по имеющимся в видео или фото qr-кодам и ссылкам.

6. Если вам поступил звонок или сообщение с голосом вашего близкого человека (но с другого номера) с просьбой о переводе денег или передаче конфиденциальной информации, обязательно удостоверьтесь в подлинности информации и ее отправителя.

7.Обратите внимание на "качество" контента. Если есть нечеткость, нарушение визуального ряда, смазанность, нарушение границ объектов, странная мимика или неестественные жесты, то скорее всего, перед вами фейк.

8. Расскажите своим близким, особенно пожилым и несовершеннолетним о том, как мошенники используют дипфейки, и что делать, если поступил звонок или видеосообщение сомнительного содержания.

9. Помните! Виктимность (способность становится жертвой преступления) во многом определяется вашим собственным поведением и бдительностью. Не дайте мошенникам обмануть себя с помощью технологий!

Источник:profil.adu.by
Источник:profil.adu.by