Технологическое развитие, продукты которого всё больше внедряются в наши жизни, мне видится весьма интересным направлением для инвестиций. Так что одним глазом я наблюдаю за тем, что происходит в сфере искусственного интеллекта, машинного обучения и обработки данных.
Но на эту заметку меня побудило вовсе не технологическое развитие, а его обратная сторона - мошенничество и ложь, которую всё сложнее отличить от правды.
Что есть реальность?
Скоро время назад пойдёт,
Элвис новые песни споёт.
Группа Пикник, комп. "Азбука морзе"
Ещё с месяц назад, переслушивая творчество Эдмунда Шклярского задумался о том, что он хотел сказать этими словами в песне 2014 года. Мысли сами сходились к, читайте, пророчеству или научной фантастике о ближайшем будущем.
И вот, новостной фон вокруг технологии дипфейк (deepfake) буквально вскипел на серии публикаций.
Дипфейк (Deepfake) - методика синтеза изображения, основанная на искусственном интеллекте. Она используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. В подавляющем большинстве случаев, для создания таких видео используют генеративно-состязательные нейросети. Одна часть алгоритма учится на реальных фотографиях определенного объекта и создает изображение, буквально состязаясь со второй частью алгоритма, пока та не начнет путать копию с оригиналом.
Для начала, вместо полезного применения технологии мы получили новую волну мошенничества, начавшуюся ещё в 2019 году.
Первым событием стало распространение в соцсетях видео с Дмитрием Нагиевым. Людям предлагали кликнуть на ссылку, чтобы поучаствовать в розыгрыше. Ссылка вела на фишинговый сайт, а после перехода мошенники получали доступ к банковским счетам. Специалисты по безопасности называли ролик хорошо проработанным дипфейком: лицо артиста «прикрутили» к чужому телу.
В этом году мошенники опубликовали в сети видео, где анонсируется акция, по которой банк Тинькофф дарит клиентам 50% от суммы их инвестиций. Чтобы принять участие в акции клиентам предлагается зарегистрироваться. Таким образом, целью злоумышленников является получение персональных данных граждан.
- При всех возможностях технологии, можно не сомневаться, что мошенники прочно обоснуются на данном поприще и впереди нас ждёт новая волна фейковых новостей, лжи и обмана.
Но проблема технологии дипфейк и в том, что её возможная сфера применения куда шире. И то, что сейчас может показаться благом, также может обернуться и во вред.
Скажем, из недавних событий, которые привлекли внимание - это новая реклама Мегафон, в которой "снялся" дипфейк Брюса Уиллиса:
В продолжение, по сети распространилось видео, созданное датчанами из коллектива DiepNep с Морганом Фрименом. Вот только это совсем не он, а дипфейк.
Имитация с помощью современных нейросетей вкупе с графикой и идеальной передачей голоса позволили сделать видео настолько чётким и реалистичным, что на глаз "подделку" отличить невозможно.
А развитие нейросетей вводит в заблуждение даже существующий искусственный интеллект (который и работает над созданием таких видео).
Война искусственных интеллектов
Ученые из Тель-Авивского университета в Израиле разработали способ обхода системы биометрической идентификации с помощью поддельного снимка лица.
Обнаруженная уязвимость вкупе с искусственным интеллектом позволили создать универсальный шаблон, способный обмануть большой процент систем безопасности.
- Всего 9 лиц, сгенерированных с помощью алгоритма StyleGAN, смогут соответствовать 40% населения Земли.
Учёные протестировали синтезированный нейросетью снимок на наборе данных из 13,000 изображений и выяснили, что фейковое лицо может имитировать 20% личностей из датасета. Другие тесты показали более высокие результаты.
«Аутентификация по лицу чрезвычайно уязвима, даже если у злоумышленников нет информации о целевой личности», - сообщили исследователи.
Более того, данная уязвимость хорошо сочетается с дипфейками для имитации проверки "живости", которую часто применяют для удаленного подтверждения личности с помощью выполнения ряда жестов.
Чёрное - это белое
С одной стороны, с большой вероятностью в ближайшее время мы получим новые песни Элвиса Пресли, а с небольшим запозданием и наших культовых исполнителей, к примеру, Кипелова. В кинематографе нас может ожидать возвращение великих актёров прошлого.
С другой стороны, фейк, который уже прижился на телевидении и в публичных изданиях СМИ за счёт изменения характера и посыла новостей теперь усилится и в интернете, за счёт дипфейк и невозможности отличить реальное от виртуального.
Иными словами, с дальнейшим развитием технологий нам всё сложнее будет отличить тонкую грань, где заканчивается правда и начинается ложь.
Регулирование этих технологий кажется маловероятным, поскольку оборудование ("железо") является общедоступным, а мозги запретить невозможно.
Единственный вывод, который я делаю из всей этой истории заключается в том, что любую информацию, в том числе не вызывающую ни долю сомнения (видео-контент) нужно перепроверять. А в идеале свести к минимуму необходимость потребления новостей, которые прямым образом не затрагивают жизнь каждого человека.
А что вы думаете о этих технологиях и их применении?
Благодарю, что читаете.
По традиции - будьте богаты, здоровы и любимы.
#искусственный интелект #нейросети #машинное обучение #дипфейк #инвестиции