Найти в Дзене
ЗВЕЗДА-АНАЛИТИКА

ДИПФЕЙК - СИНТЕТИЧЕСКИЙ СЛЕПОК РЕАЛЬНОСТИ, КОТОРЫЙ МОЖЕТ УГРОЖАТЬ НАЦИОНАЛЬНОЙ БЕЗОПАСНОСТИ

От дорогостоящей технологии в кино до массового использования в сети Дипфейк - синтетический цифровой контент, изображение человека, перенесенное в некие искусственно созданные условия, ситуацию, которой в действительности никогда не было. В кино эта технология позволяет омолаживать или, например, «воскрешать» актёров, которые нужны для ремейков старых фильмов. На экране мы видим знакомое лицо, знакомый голос, но это искусственный образ, не принадлежащий реально живущему сегодня человеку. И то, что раньше в силу дороговизны было доступно крупным киноконцернам, сегодня может позволить себе каждый владелец смартфона. То есть, порог входа для создания синтетических образов, фантастического видео и аудио контента, существенно понизился. Поэтому сегодня в сети есть сотни миллионов синтезированных файлов, дипфейков, изначально создаваемых как безобидный розыгрыш, интернет-забава для узкого круга друзей и товарищей. Инструмент дискредитации, манипуляции, шантажа – под ударом каждый Самый скан
Оглавление
Юрий Линдре, эксперт Сколковского института науки и технологий по вопросам международного регулирования искусственного интеллекта и сквозных технологий, исполнительный секретарь Комитета по вопросам искусственного интеллекта при Комиссии Российской Федерации по делам ЮНЕСКО в программе «Стратегия национальной безопасности» с Анной Шафран на радио «Звезда».
Юрий Линдре, эксперт Сколковского института науки и технологий по вопросам международного регулирования искусственного интеллекта и сквозных технологий, исполнительный секретарь Комитета по вопросам искусственного интеллекта при Комиссии Российской Федерации по делам ЮНЕСКО в программе «Стратегия национальной безопасности» с Анной Шафран на радио «Звезда».

От дорогостоящей технологии в кино до массового использования в сети

Дипфейк - синтетический цифровой контент, изображение человека, перенесенное в некие искусственно созданные условия, ситуацию, которой в действительности никогда не было. В кино эта технология позволяет омолаживать или, например, «воскрешать» актёров, которые нужны для ремейков старых фильмов. На экране мы видим знакомое лицо, знакомый голос, но это искусственный образ, не принадлежащий реально живущему сегодня человеку. И то, что раньше в силу дороговизны было доступно крупным киноконцернам, сегодня может позволить себе каждый владелец смартфона. То есть, порог входа для создания синтетических образов, фантастического видео и аудио контента, существенно понизился. Поэтому сегодня в сети есть сотни миллионов синтезированных файлов, дипфейков, изначально создаваемых как безобидный розыгрыш, интернет-забава для узкого круга друзей и товарищей.

Инструмент дискредитации, манипуляции, шантажа – под ударом каждый

Самый скандальный дипфейк, разошедшийся по всем мировым СМИ, появился в 2019 году. В то время президентом США был Дональд Трамп. Он был чуть ли не самым активным политическим деятелем в Twitter с многомиллионной армией подписчиков. Посредством своей страницы в этом приложении он критиковал своих оппонентов, среди которых числилась в тот момент спикер верхней палаты парламента Нэнси Пелоси. История умалчивает, кто является автором дипфейка с её участием, но видео на своей странице выложил Трамп. В этом ролике Пелоси предстала в нетрезвом, явно неадекватном, дискредитирующем себя виде. Законодательного регулирования феномена синтетических видео в США на федеральном уровне на тот момент не было, поэтому за разразившийся скандал никто ответственности не понёс. А Twitter просто констатировал, что видео является недостоверным. Стало очевидным, что применение технологий дипфейка может быть преступным и одновременно безнаказанным. При этом эффективность применения такого рода инструментов в разы сильнее, чем у обычных текстов или изображений. По силе воздействия эта технология не имеет аналогов на текущий момент. И, если задаться целью, то через дипфейки можно разбалансировать любое общество, используя технологию как оружие в гибридных войнах, в развязывании «цветных революций».

Юрий Линдре, эксперт Сколковского института науки и технологий по вопросам международного регулирования искусственного интеллекта и сквозных технологий, исполнительный секретарь Комитета по вопросам искусственного интеллекта при Комиссии Российской Федерации по делам ЮНЕСКО в программе «Стратегия национальной безопасности» с Анной Шафран на радио «Звезда».
Юрий Линдре, эксперт Сколковского института науки и технологий по вопросам международного регулирования искусственного интеллекта и сквозных технологий, исполнительный секретарь Комитета по вопросам искусственного интеллекта при Комиссии Российской Федерации по делам ЮНЕСКО в программе «Стратегия национальной безопасности» с Анной Шафран на радио «Звезда».

Дипфейк – это джинн, способный смести всё на своём пути

Есть такой термин - «твиттерные войны». Он появился в 2011 году в ходе массовых протестов в Египте. Дело в том, что действия протестующих координировались именно в этой соцсети. Там же нагнетались протестные настроения накануне волнений в Каире против действующего на тот момент правительства Хосни Мубарака. В итоге действующая власть пала, а все происходящее в режиме онлайн транслировалось и координировалось все в той же сети. А теперь представьте, что тогда же были бы доступны технологии дипфейка, которые прямо воздействуют на сознание людей, не просто побуждая их к каким-то действиям, но ещё и насаждают определенного рода смыслы. Очевидно, массовые волнения имели бы более радикальный характер и охватили бы соседние регионы. Дипфейк – это такой огромный джинн, который сметет всех, если его выпустить из бутылки. Пересидеть не получится. Потому что нет уже в мире таких островков безопасности. Понимание этого пока ещё сдерживает серьезное использование технологии на высоком, транснациональном уровне.

📹Видеоверсию выпуска целиком можно посмотреть здесь или здесь

📌Подписывайтесь на нас в Телеграм @zvezda_analytics

А также в: ВК, ОК, Rutube

#звездааналитика #шафран #линдре #искуственныйинтеллект #дипфейк #нейросеть #манипуляция #пелоси #твиттер #twitter