Найти тему
Китайский специалист

Угроза мошенничества с использованием дипфейков с искусственным интеллектом растёт. Это новый и дорогостоящий вид мошенничества.

Оглавление

Искусственный интеллект привнёс в цифровой мир множество изменений, предлагая как преимущества, так и риски. Одним из наиболее тревожных рисков является рост технологии дипфейков.

Дипфейки — это поддельные изображения, видео или аудио, созданные с помощью искусственного интеллекта, который копирует внешность и голоса реальных людей. Обнаружить такие фальшивые материалы бывает очень сложно.

В последние годы дипфейки стали использоваться для онлайн-мошенничества. Мошенники применяют эту технологию, чтобы украсть большие суммы у ничего не подозревающих людей.

Технология дипфейков: как это работает

Технология дипфейков существует уже давно, но в последние годы она значительно продвинулась. Теперь с помощью искусственного интеллекта можно создавать поддельные видео, на которых человек говорит или делает то, чего он никогда не делал.

Мошенники используют для этого реальные видео с людьми, например, интервью или публичные выступления. Затем с помощью ИИ они изменяют движения губ и голоса человека, чтобы он говорил то, чего никогда не говорил в реальности. Это создаёт впечатление, что человек говорит правду, хотя на самом деле это не так.

Например, мошенники часто используют видео с Илоном Маском, генеральным директором Tesla. Поддельные видео выглядят очень убедительно и могут обмануть даже внимательных зрителей.

Привлекательность мошенничества с дипфейками

Мошенники выбирают таких людей, как Илон Маск, потому что им доверяют многие люди. У него большая база поклонников, в том числе те, кто интересуется криптовалютой и новыми технологиями.

Это делает его идеальной мишенью для мошенников, которые используют технологию дипфейков, особенно когда они продвигают поддельные инвестиционные схемы. Видео часто обещают быструю и высокую прибыль, что может соблазнить людей инвестировать, не проверяя, реально ли это предложение.

Эти видеоролики, созданные с помощью искусственного интеллекта, дешевы и быстро создаются. Они часто появляются на таких платформах социальных сетей, как Facebook и YouTube, где могут охватить широкую аудиторию. Мошенники используют передовые технологии синхронизации губ и инструменты клонирования голоса для создания убедительных видеороликов. Они часто начинают с реальных кадров с участием Маска.

Дипфейки особенно распространены в мошенничестве, связанном с криптовалютой, и Маск является наиболее часто выдаваемой фигурой. Он появляется почти в четверти проанализированных случаев мошенничества с дипфейками, связанных с криптовалютой.

Эксперты прогнозируют, что мошенничество с использованием технологии дипфейков будет продолжать расти, так как организованные преступные группировки понимают потенциал финансовой выгоды. Несмотря на то, что нынешняя технология дипфейков не идеальна и иногда возникают сбои в синхронизации губ или голоса, она совершенствуется. Это делает эти мошенничества всё более трудными для обнаружения и предотвращения.

-2

Последствия в реальной жизни: дело Стива Бошана

Одним из примеров того, как мошенничество с дипфейками может разрушить жизнь, является история Стива Бошама — 82-летнего пенсионера.

Стив хотел увеличить свой доход, поэтому, когда он увидел видео, в котором Илон Маск рекомендует новый инвестиционный план, он решил вложить деньги. Видео выглядело убедительно, и Бошам вложил небольшую сумму. Но затем он начал вкладывать всё больше и больше, пока не потерял более 690 000 долларов со своего пенсионного счёта. Деньги достались мошенникам, которые использовали технологию дипфейка, чтобы обмануть Стива. К тому времени, когда он понял, что его обманули, было уже слишком поздно.

Один мой знакомый из Омска потерял на фейковой бирже несколько миллионов рублей. Он вложил в неё все свои сбережения, заработанные за всю жизнь.

Ему позвонили с фейкового сайта, который имитировал работу реальной биржи, и предложили принять участие в проекте. Знакомый решил рискнуть и постепенно вносил всё больше денег, пока не вложил всё, что у него было. Однако потом сайт просто исчез, и он остался ни с чем.

Заведённое против него уголовное дело не принесло ему пользы и не принесёт в будущем.

Буквально на днях прошла новость. Певица Лариса Долина также стала жертвой телефонных мошенников, которые обманом вынудили её продать элитную квартиру в Москве. Они убедили её перевести деньги на «безопасный счёт», который на самом деле был подконтролен злоумышленникам.

Сейчас эта квартира принадлежит обычным людям из Москвы, которые не знали, что стали участниками мошеннической схемы. Из-за этого певица отказывается съезжать, а квартиру уже арестовали.

Вернёмся к теме дипфейков.

Широкое использование мошенничества с дипфейками

История Бошана — лишь один из многих примеров использования дипфейк-видео для мошенничества. В последние месяцы в интернете наблюдается рост числа таких видео.

Создать дипфейк-ролик очень просто и недорого: для этого нужно всего лишь 10 долларов и несколько минут времени. Мошенники часто берут за основу реальные видео, такие как интервью или публичные выступления, и с помощью искусственного интеллекта создают поддельную версию. Затем эти видео распространяются в социальных сетях, в том числе через платную рекламу на таких платформах, как Facebook и YouTube. Благодаря этому мошенники могут быстро охватить широкую аудиторию.

Глобальное влияние мошенничества с дипфейками

Мошенничество с использованием дипфейков — это проблема не только для Соединённых Штатов, это глобальная проблема. Мошенники, стоящие за такими видео, часто находятся в таких странах, как Индия, Россия и страны Восточной Европы.

Конечно, где же им ещё быть, не в США и Европе же! И (в, на) Украине их совсем нет теперь :)

Они используют технологию дипфейков, чтобы воздействовать на людей по всему миру. По данным Deloitte, ущерб от такого мошенничества может составлять миллиарды долларов ежегодно.

Широкое распространение таких видео свидетельствует о том, что это серьёзная проблема, которую необходимо решать.

Платформы под давлением: Facebook и YouTube

Платформы социальных сетей, такие как Facebook и YouTube, стали основными местами распространения мошенничества с использованием технологии дипфейк. Они подвергаются критике за то, что не предпринимают достаточных усилий для борьбы с распространением поддельного контента.

В ответ на критику платформы начали удалять мошеннические видео и аккаунты. Однако проблема остаётся актуальной. Например, только в период с января по март YouTube удалил более 8,2 миллионов видео, нарушающих их политику. Тем не менее, многие видео с дипфейками всё ещё остаются в сети.

Facebook также активно удаляет контент, связанный с мошенничеством. Однако новые случаи использования дипфейков появляются ежедневно.

-3

Судебные иски и предупреждения

Увеличение числа случаев мошенничества с использованием технологии дипфейк привело к тому, что судебные иски и предупреждения начали поступать от различных органов.

Например, австралийский миллиардер Эндрю Форрест подал иск против компании Meta, которая является материнской компанией Facebook. В своём иске он обвинил Meta в халатности в сфере рекламы. По его словам, видео с его участием использовались в дипфейк-рекламе, которая вводила пользователей в заблуждение и побуждала их делать плохие инвестиции.

Федеральная торговая комиссия США (FTC) и ФБР также обратили внимание на рост киберпреступности, связанной с искусственным интеллектом. Они отметили, что мошенничество с использованием дипфейков становится всё более распространённым и его всё труднее обнаружить.

Пожилые люди: уязвимая мишень

Одна из групп, особенно подверженных риску мошенничества с использованием технологии дипфейк, — это пожилые люди. Хотя пожилые интернет-пользователи могут иметь представление о криптовалюте и искусственном интеллекте, они могут не знать о безопасных способах инвестирования.

Мошенники пользуются этим незнанием, создавая поддельные инвестиционные возможности, которые кажутся законными, с помощью дипфейков. Они заманивают жертв обещаниями высокой прибыли и постепенно заставляют их вкладывать всё больше и больше денег. К тому времени, как жертвы понимают, что их обманули, они часто теряют значительную сумму своих сбережений.

Продолжающаяся борьба с мошенничеством с дипфейками

По мере развития технологий создания дипфейков мы, вероятно, будем сталкиваться с большим количеством случаев мошенничества, использующих эту технологию. Хотя она ещё не идеальна — некоторые видео имеют заметные недостатки, такие как неестественные голоса или движения губ, которые не совпадают со звуком — она постоянно улучшается. Это делает ещё более важным для людей быть в курсе рисков и принимать меры для защиты от мошенников.

Заключение

Мошенничество с использованием технологии дипфейк — это серьёзная и тревожная проблема в эпоху цифровых технологий. По мере развития искусственного интеллекта мошенники находят всё более изощрённые способы его применения.

Истории людей, подобных Стиву Бошампу, демонстрируют, насколько разрушительными могут быть подобные мошенничества. Очень важно, чтобы люди проявляли бдительность, а платформы постоянно улучшали свои методы выявления и предотвращения таких случаев. Только благодаря сотрудничеству мы сможем противостоять растущей угрозе мошенничества с использованием дипфейк-технологий.