Найти тему
EasyScience

Опасность искусственного интеллекта и "Черный ящик"

Откройте сайт ThisPersonDoesNotExist и он вам покажет очень реалистичное изображение человека, которое на самом деле фейк. Перезагрузите и нейросеть сгенерирует ещё, ещё и ещё, каждый раз будет разное. Бесконечная последовательность лиц, сгенерированных искусственным интеллектом с помощью GAN - типа ИИ, который создаёт какую-либо реалистичную, но не настоящую информацию, основываясь на исходным данных, на которых "тренировалась" нейросеть.

Но лица сгенерированные таким образом, которые недавно начали использовать в CGI и рекламе, не настолько уникальны как можно было бы подумать. Авторы сайта исследовали то множество изображений, сгенерированных нейросетью, и заметили, что они очень сильно похоже на людей, чьи лица послужили "исходными данными". Этот факт позволяет их идентифицировать. Эта работа была последней в серии исследований, которые ставят под сомнение идею о том, что нейронные сети - это "Черные ящики", которые ничего не раскрывают о том, что происходит внутри

Главная же опасность нейросетей заключается в том, что они создают возможность для создания огромного количества фейков. Например, весной 2019 года, с помощью нейросети был изменён голос политика США - Нэнси Пелоси. Ситуация вылилась в скандал, так как казалось, что она пьяна, однако потом оказалось, что голос Нэнси был сгенерирован с помощью ИИ.
Так же были случаи когда ИИ использовался для подделывания не только голоса, но ещё и видео. Наиболее громкими случаями были видео с Марком Цукербергом и Бараком Обамой.

Кадры из видео с выступлением Барака Обамы, сгенерированного нейросетью
Кадры из видео с выступлением Барака Обамы, сгенерированного нейросетью

(Данная статья является частичным переводом статьи MIT. Оригинал - https://www.technologyreview.com/2021/10/12/1036844/ai-gan-fake-faces-data-privacy-security-leak/)