Найти тему
КОСМОС

Искуственный интелект, укравший 25 000 000 долларов

Опасен ли искусственный интеллект? Если вы слушали таких людей, как Илон Маск или Сэм Альтман, вы могли подумать, что, оставленный сам по себе, ИИ представляет собой угрозу уровня Skynet для человечества. К счастью, их страхи не разделяются большинством программистов ИИ. У нас все еще нет ИИ, который мог бы хорошо управлять автомобилем, чтобы это было законно, не говоря уже о том, чтобы противостоять человечеству. Так что, хотя нам и нужно следить за буйным ИИ, мы должны воспринимать эти публичные заявления руководителей ИИ о страхе за то, чем они на самом деле являются. Пиар-трюки. Но это не значит, что ИИ не опасен. Он имеет потенциал стать одним из величайших инструментов человеческого порока, который нам когда-либо доводилось изобретать, как недавно узнал один несчастный финансовый директор, потерявший 25 000 000 долларов в недавнем ограблении с помощью ИИ. Но есть ли способ борьбы с преступлениями ИИ, подобными этому?

Итак, как ИИ украл десятки миллионов долларов? Все началось с электронного письма.

Неименуемый финансовый директор из Гонконга получил подозрительное электронное письмо, якобы от его британского коллеги, с просьбой провести секретную транзакцию. Он не был дураком и сразу подумал, что это попытка фишинга. Но отправитель письма предложил провести групповой звонок в Zoom, и когда финансовый директор из Гонконга присоединился к видеозвонку, он увидел и услышал нескольких своих коллег, которых узнал. Его опасения отпали, и они приступили к организации транзакций, в результате чего он перевел 25 600 000 долларов в 15 отдельных транзакциях на счета, указанные его британским коллегой.

Никто и не подозревал, что произошло, пока другой сотрудник не связался с головным офисом и не обнаружил, что британский офис не делал такого запроса на транзакцию и не получал никаких денег. Представьте, какое отчаяние и чувство вины должен был испытать финансовый директор, когда узнал об этом.

Что же произошло? Оказывается, единственным реальным человеком в этом видеозвонке был финансовый директор из Гонконга. Остальные были ИИ-глубокими подделками (не знаете, что такое глубокие подделки? Нажмите здесь, чтобы узнать), созданными на основе общедоступных данных о британском финансовом директоре и других сотрудниках в звонке. Имея в распоряжении не более чем эти данные, базовую программу ИИ и некоторую коварную изобретательность, мошенникам удалось украсть достаточно денег, чтобы купить совершенно новую мегаяхту!

Теперь я уже слышу, как некоторые из вас насмехаются над этой историей и громко заявляют, что этот финансовый директор должен быть идиотом, так как глубокие подделки легко обнаружить, поскольку все они выглядят неправильно. Но вы можете захотеть придержать коней, так как статистика с вами не согласна. Недавнее исследование показало, что люди не могут надежно определить глубокие подделки, что означает, что большинство людей просто угадывают. Это еще более тревожно, так как это же исследование также показало, что люди склонны ошибочно принимать глубокие подделки за подлинные видео чаще, чем наоборот. Иными словами, глубокие подделки теперь чрезвычайно хорошо обманывают вас.

Учитывая, что качество видео и аудио предполагаемого трансконтинентального звонка в Zoom было настолько низким, что скрывало любые артефакты в видео или аудио, вы можете понять, как финансовый директор был обманут.

Итак, если глубокие подделки уже обманывают нас в таких монументальных масштабах, как мы можем с этим бороться?

Существует два способа.

Во-первых, вы можете "отравить" ИИ. Для создания убедительной глубокой подделки требуется много данных. Как можно больше фотографий, масса видео о том, как человек двигает лицом, и много четкого аудио, где он говорит. Большинство глубоких подделок получают эти данные из общедоступных источников, таких как сообщения в социальных сетях, загруженные самим человеком или компанией, на которую он работает. Однако существуют программы, такие как Nightshade и PhotoGuard, которые могут изменять эти файлы таким образом, который мы не можем обнаружить, но который нарушает алгоритм ИИ, делая глубокую подделку бесполезной. Например, Nightshade может заставить ИИ думать, что он видит что-то иное, а не лицо на фотографии, и это неправильное определение может сбить с толку программы машинного обучения, стоящие за глубокими подделками.

Использование этих программ на всех фотографиях и видео, которые вы или ваш работодатель публикуете в Интернете, может защитить вас от клонирования глубоких подделок. Однако это далеко не надежно; эти программы находятся в игре в кошки-мышки. ИИ становятся лучше в распознавании этих измененных файлов, и программы, обманывающие глубокие подделки, должны разрабатывать новые, оригинальные способы их обмана.

Второй, и, возможно, более надежный способ защиты от мошенничества с глубокими подделками — не полагаться на такой одинокий и уязвимый источник проверки личности. Финансовый директор из Гонконга воспринял видеозвонок как надежный способ верификации и даже не позвонил в головной офис или кому-либо еще в британском филиале, чтобы получить двухэтапную верификацию подлинности. Существуют даже программы, которые используют частное шифрование ключей для подтверждения подлинности чьей-то личности онлайн. Наличие нескольких шагов аутентификации, подобных этим, делает проведение такого мошенничества практически невозможным, и это то, что все корпорации должны внедрять немедленно.

Так что в следующий раз, когда вы будете на звонке в Zoom или отвечаете на звонок от коллеги, члена семьи или друга, помните, что человек на другом конце может быть не тем, кем кажется. Особенно если они просят вас совершить секретные транзакции на сумму 25 600 000 долларов на 15 банковских счетов, о которых вы никогда не слышали.