Анна Швецова
корреспондент ComNews.ru
© ComNews
05.02.2024
О дипфейках пользователи сети говорят уже не первый год, но в 2023 году они особенно сильно взволновали россиян. Теперь дипфейки выступают на прямой линии президента, отвечают на вопросы за Жириновского и говорят голосом Елены Блиновской. Кроме этого злоумышленники используют их при мошенничестве и для создания фейков. Депутаты Госдумы уже предложили внести изменения в законы. Но так ли страшна технология.
Предтеча дипфейка существует еще с 1997 года. Тогда программа Video Rewrite, которая позволяла менять мимику человека и подставлять ему любые аудиодорожки.
Однако неправильно называть такие ролики дипфейком. Дипфейк - поддельные фотографии, видео и аудиозаписи, которые синтезированы с помощью искусственного интеллекта (ИИ).
Считается, что первые "настоящие" дипфейки появились в 2017 году. Тогда пользователь Reddit с ником Deepfakes опубликовал фальшивые ролики с участием обнаженных звезд, что вызвало большой резонанс в Сети. С тех пор технология развивалась, становилась доступнее, и люди все чаще стали опасаться ее.
Однако в прошлом году случился взрыв популярности дипфейков в связи с бумом интереса к искусственному интеллекту. В мае 2023 года Reuters cо ссылкой на компанию в области ИИ DeepMedia сообщил, что, по сравнению с аналогичным периодом 2022 года, количество видеофейков выросло в три раза, аудиофейков - в восемь. А согласно отчету AI Index Report 2023, за последние 10 лет количество этических нарушений, связанных с ИИ, выросло в 26 раз. Если раньше доступ к технологии был у ограниченного числа людей, то сейчас простенький дипфейк может сделать практически каждый за пару кликов. Хотя создать качественную подделку все еще сложно.