Найти в Дзене
FinBuilding

Элвис новые песни споёт. О развитии дипфейк, биометрии данных и икусственном интеллекте.

Технологическое развитие, продукты которого всё больше внедряются в наши жизни, мне видится весьма интересным направлением для инвестиций. Так что одним глазом я наблюдаю за тем, что происходит в сфере искусственного интеллекта, машинного обучения и обработки данных. Но на эту заметку меня побудило вовсе не технологическое развитие, а его обратная сторона - мошенничество и ложь, которую всё сложнее отличить от правды. Что есть реальность? Скоро время назад пойдёт, Элвис новые песни споёт. Группа Пикник, комп. "Азбука морзе" Ещё с месяц назад, переслушивая творчество Эдмунда Шклярского задумался о том, что он хотел сказать этими словами в песне 2014 года. Мысли сами сходились к, читайте, пророчеству или научной фантастике о ближайшем будущем. И вот, новостной фон вокруг технологии дипфейк (deepfake) буквально вскипел на серии публикаций. Дипфейк (Deepfake) - методика синтеза изображения, основанная на искусственном интеллекте. Она используется для соединения и наложения существующих изо
Оглавление

Технологическое развитие, продукты которого всё больше внедряются в наши жизни, мне видится весьма интересным направлением для инвестиций. Так что одним глазом я наблюдаю за тем, что происходит в сфере искусственного интеллекта, машинного обучения и обработки данных.

Но на эту заметку меня побудило вовсе не технологическое развитие, а его обратная сторона - мошенничество и ложь, которую всё сложнее отличить от правды.

Что есть реальность?

Скоро время назад пойдёт,
Элвис новые песни споёт.
Группа Пикник, комп. "Азбука морзе"

Ещё с месяц назад, переслушивая творчество Эдмунда Шклярского задумался о том, что он хотел сказать этими словами в песне 2014 года. Мысли сами сходились к, читайте, пророчеству или научной фантастике о ближайшем будущем.

И вот, новостной фон вокруг технологии дипфейк (deepfake) буквально вскипел на серии публикаций.

Дипфейк (Deepfake) - методика синтеза изображения, основанная на искусственном интеллекте. Она используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. В подавляющем большинстве случаев, для создания таких видео используют генеративно-состязательные нейросети. Одна часть алгоритма учится на реальных фотографиях определенного объекта и создает изображение, буквально состязаясь со второй частью алгоритма, пока та не начнет путать копию с оригиналом.

Для начала, вместо полезного применения технологии мы получили новую волну мошенничества, начавшуюся ещё в 2019 году.

Первым событием стало распространение в соцсетях видео с Дмитрием Нагиевым. Людям предлагали кликнуть на ссылку, чтобы поучаствовать в розыгрыше. Ссылка вела на фишинговый сайт, а после перехода мошенники получали доступ к банковским счетам. Специалисты по безопасности называли ролик хорошо проработанным дипфейком: лицо артиста «прикрутили» к чужому телу.

-2

В этом году мошенники опубликовали в сети видео, где анонсируется акция, по которой банк Тинькофф дарит клиентам 50% от суммы их инвестиций. Чтобы принять участие в акции клиентам предлагается зарегистрироваться. Таким образом, целью злоумышленников является получение персональных данных граждан.

-3
  • При всех возможностях технологии, можно не сомневаться, что мошенники прочно обоснуются на данном поприще и впереди нас ждёт новая волна фейковых новостей, лжи и обмана.

Но проблема технологии дипфейк и в том, что её возможная сфера применения куда шире. И то, что сейчас может показаться благом, также может обернуться и во вред.

Скажем, из недавних событий, которые привлекли внимание - это новая реклама Мегафон, в которой "снялся" дипфейк Брюса Уиллиса:

-4

В продолжение, по сети распространилось видео, созданное датчанами из коллектива DiepNep с Морганом Фрименом. Вот только это совсем не он, а дипфейк.

-5

Имитация с помощью современных нейросетей вкупе с графикой и идеальной передачей голоса позволили сделать видео настолько чётким и реалистичным, что на глаз "подделку" отличить невозможно.

А развитие нейросетей вводит в заблуждение даже существующий искусственный интеллект (который и работает над созданием таких видео).

Война искусственных интеллектов

Ученые из Тель-Авивского университета в Израиле разработали способ обхода системы биометрической идентификации с помощью поддельного снимка лица.

Обнаруженная уязвимость вкупе с искусственным интеллектом позволили создать универсальный шаблон, способный обмануть большой процент систем безопасности.

  • Всего 9 лиц, сгенерированных с помощью алгоритма StyleGAN, смогут соответствовать 40% населения Земли.

Учёные протестировали синтезированный нейросетью снимок на наборе данных из 13,000 изображений и выяснили, что фейковое лицо может имитировать 20% личностей из датасета. Другие тесты показали более высокие результаты.

«Аутентификация по лицу чрезвычайно уязвима, даже если у злоумышленников нет информации о целевой личности», - сообщили исследователи.

Более того, данная уязвимость хорошо сочетается с дипфейками для имитации проверки "живости", которую часто применяют для удаленного подтверждения личности с помощью выполнения ряда жестов.

Чёрное - это белое

С одной стороны, с большой вероятностью в ближайшее время мы получим новые песни Элвиса Пресли, а с небольшим запозданием и наших культовых исполнителей, к примеру, Кипелова. В кинематографе нас может ожидать возвращение великих актёров прошлого.

С другой стороны, фейк, который уже прижился на телевидении и в публичных изданиях СМИ за счёт изменения характера и посыла новостей теперь усилится и в интернете, за счёт дипфейк и невозможности отличить реальное от виртуального.

Иными словами, с дальнейшим развитием технологий нам всё сложнее будет отличить тонкую грань, где заканчивается правда и начинается ложь.

Регулирование этих технологий кажется маловероятным, поскольку оборудование ("железо") является общедоступным, а мозги запретить невозможно.

Единственный вывод, который я делаю из всей этой истории заключается в том, что любую информацию, в том числе не вызывающую ни долю сомнения (видео-контент) нужно перепроверять. А в идеале свести к минимуму необходимость потребления новостей, которые прямым образом не затрагивают жизнь каждого человека.

А что вы думаете о этих технологиях и их применении?

Благодарю, что читаете.

По традиции - будьте богаты, здоровы и любимы.

#искусственный интелект #нейросети #машинное обучение #дипфейк #инвестиции