Найти тему
Технологии Qwerty Networks

Нейросети научились фальсифицировать картину мира

Искусственный интеллект научился создавать фальсифицированные видео «ложной реальности», неотличимые от настоящих. Это произошло еще в 2017 году, и тогда уже прецедент породил множество споров о будущем такого умения нейросетей.

Нейросетевые дипфейки иногда не отличить от реального видео!
Нейросетевые дипфейки иногда не отличить от реального видео!

Вроде бы – ничего такого. Машина на основе генеративной состязательной сети (GAN) мгновенно преобразовывает видео до неузнаваемости. Меняет время года, окружающие ландшафты, время суток и т.д. В кинопроизводстве такая программа явно пригодится. Но вопрос в том, а будет ли использована эта способность ИИ только в кинопроизводстве и в развлекательных для публики целях?

Общественное мнение и, собственно, состояние самого общества, формирует информация. Кто владеет информацией – тот владеет миром, известный афоризм. Что может натворить недостоверная информация, изготовленная на высочайшем уровне качества, страшно даже представить. Проблема стала основой для изменения и дополнения законодательства множества стран в целях защиты общественной безопасности. Особенно, если учитывать тот факт, что нейронные сети позволяют создавать не только фейковое видео, но и подделывать голоса (см. видео о возможностях платформы Vera Voice).

Фейки - это средства пропаганды, манипуляции, инструменты вызова паники, средство заработка, формирования кому-то нужных мнений и многое другое. Феномен fakenews (фальшивых новостей) – к сожалению, часть нашей реальности, причем с незапамятных времен. Как изменится современная картина мира, когда для создания фейков будет в полной мере привлечен искусственный интеллект – догадаться несложно.

Фейковая информация способна причинить непоправимый вред не только государствам, корпорациям, ведомственным структурам, но и отдельным людям. Мы склонны верить своим глазам, а как не верить, если программа может изменять даже мимику человека во время разговора? У зрителя может сложиться впечатление, что он лично слышал, как человек говорил то, чего он на самом деле не говорил, был там, где не был, и делал то, чего не делал. Потенциально это способно привести к непоправимым и даже трагичным последствиям.

Опасность объективно оценивают крупнейшие игроки медиасферы мира. Например, Facebook первым откликнулся на вызов и начал удалять фейковые видео, созданные с помощью искусственного интеллекта. Вице-президент компании Моника Бикерт заявила, что ужесточение мер борьбы касается, в первую очередь, видео с подставными лицами, созданными с помощью искусственного интеллекта. По мнению Бикерт, хотя такие видео пока еще встречаются редко, но по мере развития ИИ и распространения фальшивок, они станут настоящей угрозой для отрасли и общества.

Facebook создал спецподразделение модераторов из почти сотни человек со всего мира. Фальшивые или частично таковыми признанные видео ограничиваются в охватах, а перед проигрыванием ролика пользователям показывают предупреждение о том, что данное видео может быть фейком. Правда, дело усложняется необходимостью отличия фальшивки от, например, пародии или специально обработанного ролика для повышения качества контента. Facebook в сентябре прошедшего года даже объявил Deepfake Detection Challenge – конкурс на разработку эффективного способа отличия deepfake-видео от настоящих видео.

Верификация контента – это основа журналистской деятельности во все времена, особенно при наличии таких технологий, о которых еще год-два назад и мечтать не могли. По мнению начальника подразделения ФГУП «ГосНИИАС» Юрия Вильзитера, высказанного в одном из интервью «Известиям», технологии искусственного интеллекта сегодня открыты, устройства для обработки данных дешевеют и становятся все доступнее. Скоро подслушивать и подсматривать за каждым из нас, то есть, манипулировать реальностью сможет кто угодно, в чьи руки попадут такие технологии.

ПОДПИСЫВАЙТЕСЬ НА НАШ КАНАЛ!