Технологии модуляции голоса и звука и генерации изображения нынче скакнули далеко. Сейчас, они способны отобрать хлеб и у заправского юмориста. Раньше, когда Максим Галкин пародировал Бориса Ельцина никому в голову не могло придти, что это в состоянии сделать и компьютерная программа управляемая искусственным интеллектом.
Но если пародии Галкина никому не приносили вреда, даже Ельцин на них не обижался, (он вообще в этом вопросе был крайне демократичен, то, что звучало тогда с экрана телевизора сейчас не позволяет себе и самый отвязный и оппозиционный блоггер) то подобные программы в сомнительных руках способны бед наделать немало.
Как вам высказывание, произнесённое голосом президента, которое он не говорил, направленное на обслуживание интересов различных заинтересованных сторон. Подобные лживые фейки способны напрочь испортить отношения на международной арене - поди потом доказывай, что слова, как бы произнесённые президентами, всего лишь очень искусная подделка, да и при заключении договоров в бизнесе слова нужного человека, пусть даже и смоделированные, могут быть весомей любых официальных документов.
Правда работа со звуком для ИИ сопряжена с определёнными и немалыми сложностями. Тут нужно учитывать задачи деконволюции - то есть устранения различных помех, которые создают внешние системы искажающие основной сигнал. Например, на вокзале бывает сложно разобрать, что говорит диктор - слишком большие открытые пространства, слишком сильное эхо и плохая акустика. Не случайно при строительстве театров и актовых залов в первую очередь учитывают акустику и прикладывают много усилий, чтобы звук был чистый и без искажений.
Но настоящую опасность могут представлять фейковые новости
Новости с участием политиков и лиц, принимающих ключевые решения в экономике и законотворчестве. Слушая некоторые высказывания наших чиновников поневоле задаёшься вопросом - а не фейки ли это, как может человек занимающий столь высокое положение говорить такое?
С другой стороны, чиновники и знаменитости могут на подобную технологию сваливать любые ляпы, оговорки и косяки, дескать это всё фейк, а я тут вовсе не при чём, я белый и пушистый.
Вот такой вот дивный новый мир, когда обман благодаря технологиям переходит на совершенно новый уровень. Дело в том, что существует такая технология как Deepfake - это метод создания несуществующих видео и изображений на основе технологий искусственного интеллекта, при котором задействуется машинное обучение для создания, монтажа и управления контентом.
Если перевести с научного языка на русский то Deepfake позволяет наложить лицо любого известного человека на какое-либо видео. Результат получается, мягко говоря, неоднозначный. Страдают от этой технологии многие знаменитости, особенно красивые актрисы, становясь не по своей воле звёздами фильмов для взрослых.
Для создания подобного изображения используется 2 нейронные сети: генератор и дискриминатор, задача которых состязаться с друг-другом. Генератор создаёт изображение лица известного человека, какой-либо ландшафт, даже самый фантастический, движения, которые накладываются на изображение известного человека, актёра, персонажа кино и даже животного - технология позволяет, как например, в фильме "Жизнь Пи", рисовать самые невероятные картинки с участием животных и заставляет их делать то, что недостижимо простой дрессировкой.
А дискриминатор просчитывает насколько естественным изображение получилось, если дискриминатор определил, что изображение фейковое, генератор рисует новое, если же генератор обманывает дискриминатор, то он заново просчитывает не является ли фейковым изображение, уже с учётом своей ошибки и новых данных.
Проще говоря, это бесконечное соревнование двух нейронных сетей, исходный результат работы которых - получение неотличимого от настоящего изображения.
Суть проблемы
Проблема в том, что раньше подобные технологии смогли себе позволить лишь крупные киностудии, а сейчас любой желающий, у кого есть мощный компьютер с хорошей видеокартой может запустить программу типа Fakeapp и всё, даже не нужно заморачиваться насчёт отрисовки графики, искусственный интеллект всё сделает автоматически.
Вот потому многие знаменитости и озабочены столь бурным развитием подобных технологий, могут появиться тысячи поддельных видео, неотличимых от настоящих, а мы узнаем о знаменитостях очень много нового, и разумеется в основном, в негативном ключе.
А точно ли Дзюба был на том самом видео? Технология, способная подставить любую знаменитость.
Как показал недавний матч против сборной Словении наша сборная без Артёма Дзюбы обходиться не может. 2 гола забитые им в первом тайме во многом определили исход встречи. Ну а во втором тайме, наши "доблестно" оборонялись против словенцев, словно это были какие-нибудь испанцы на ЧМ 2018 и вымучили всё же нужный для себя результат.
Вопрос только в том, зачем нужно было выгонять из сборной и лишать капитанской повязки ключевого игрока, пусть даже и такого "неидеального", всего лишь после появления пресловутого видео, место которому на интернет-помойках. Оно никак не может быть поводом для серьёзного обсуждения по центральным каналам и уж тем более принятия на его основания решений, способных навредить и основательно навредивших сборной. Тем более, вполне возможно, что это обычная подстава, поскольку нынешние технологии позволяют любую знаменитость сделать звездой горячего кино.
Если у вас есть идеи как автоматизировать какой-то процесс напишите нам на сайте Ivanov lab , мы готовы сделать вам решение для на основе технологии искусственного интеллекта.
Не забывайте делиться вашими впечатлениями в комментариях о статье.