Найти тему
IPQuorum

Куда пропадают границы между подделкой и реальностью?

Как регулировать создаваемый AI-контент и применять Deepfake правильно?

Программисты и инженеры компьютерных систем то и дело достигают все новых высот в освоении возможностей искусственного интеллекта. Оптимистичные взгляды IT-гениев не разделяют футурологи, которые считают, что бесконтрольное развитие ИИ может привести к сценарию «Восстания машин».

Опасения возникают также у юристов. Эксперты призывают обратить внимание на вопросы авторского права и безопасности персональных данных, ведь уже сейчас существуют сервисы, например китайское приложение Zao, – которые при помощи машинного обучения и нейронных сетей позволяют заменять лица актеров фотографиями пользователей, создавая реалистичные «фейковые» видео.

Несмотря на все трудности и возможные угрозы, технологии искусственного интеллекта прочно вошли в нашу повседневную жизнь. Агентство Statista оценило: уже к 2025 году объем рынка ИИ составит более 89 миллиардов долларов, хотя в 2016-м этот показатель не превышал 10 миллиардов.

Нейросети проникли в автомобилестроение, сельское хозяйство, маркетинг, медицину и во многие другие сферы. Представители творческой среды особенно заинтересовались применением технологий ИИ для создания Deepfake – коротких роликов, в которых пользователи могут заменять лица актеров, редактировать их речь и проводить другие манипуляции с контентом. Этот термин получился в результате слияния понятий deep learning – «глубокое обучение» и fake videos – «поддельные видео».

«Deepfake уже сейчас позволяет генерировать изображения практически фотореалистичного качества. Технология генеративно-состязательных сетей, лежащих в основе Deepfake, работает примерно так: есть генератор, создающий поддельные изображения, и дискриминатор, который пытается распознать настоящие и поддельные изображения. Они тренируются вместе, то есть одновременно мы разрабатываем сеть, генерирующую подделки, и сеть, распознающую их. Из-за этой особенности принципиально невозможно создать такую сеть, которая сможет стопроцентно распознавать подделки – вторая часть программы сразу же научится ее обманывать», – объяснил ipquorum.ru член Российской и Европейской ассоциаций искусственного интеллекта, координатор академических программ департамента стратегических технологий Microsoft Дмитрий Сошников.

Подобные инновации вызывают не только восхищение, но и серьезное беспокойство среди профессионалов. Так, инженеры Стэнфордского университета отказались опубликовать код разработанного ими алгоритма Neural Rendering, позволяющего менять речь и мимику спикеров в видео, и объяснили свое решение стремлением предотвратить случаи клеветы и распространения поддельных новостей.

А после того как на массовый рынок вышли бесплатные Deepfake-приложения и сервисы, по всему интернету стали стремительно распространяться фейковые порнографические видео с «участием» популярных актеров и актрис.

В Deepfake-видео засветились также представители бизнеса и политики, такие как один из основателей Facebook Марк Цукерберг, модель Ким Кардашьян и даже президент США Дональд Трамп.

«Технология, которую мы разрабатываем, – это Video Dialogue Replacement (VDR). При помощи Deepfake вы можете поменять свое лицо на лицо, скажем, Обамы, но все остальное останется вашим. VDR же позволяет изменить только то, что вы говорите, при этом оригинальные голос и мимика не сохранятся. Мы не считаем, что эта технология по своему существу опасна, скорее, наоборот. С ее помощью можно создать цифрового двойника – это пригодится как актерам для общения с поклонниками из разных стран, так и обычным людям, которые захотят оставить о себе «интерактивную» память», – рассказал сооснователь Canny AI Омера Бен-Ами.

Уже сейчас существуют механизмы регулирования контента, созданного при помощи ИИ.
«Deepfake – это переработка оригинального произведения с целью создания нового, производного произведения. Не важно, кто и каким образом перерабатывает оригинальное произведение. Такая переработка, за исключением ряда конкретных случаев (1274 ГК РФ или доктрина fair use на Западе), не может быть произведена без разрешения или лицензии правообладателя. Использование Deepfake злоумышленниками уже на текущем этапе ее развития может привести и к обвалу биржевых котировок, и к развязыванию войн, переворотам или гражданским беспорядкам», – отметил старший партнер команды «Сигнализация для бизнеса» Давид Замирович. Эксперт считает, что инициативы по запрету и ограничению самих технологий ИИ как факта вряд ли будут иметь перспективы, так как это будет противоречить добросовестному использованию произведений в целях пародии, критики или сатиры.

«На данном этапе развития технологии «фейковость» полученных видео очевидна. Но со временем такой контент будет становиться все более реалистичным, фрагменты будут удлиняться, а движения – усложняться», – предупредил специалист в области искусственного интеллекта, адвокат крупной калифорнийской юридической фирмы Ervin Cohen & Jessup Джейсон Хаас.

Хаас советует комплексно подходить к решению проблемы: «В первую очередь, технологическим компаниям придется вложиться в создание решений, способных идентифицировать Deepfake-контент. Со своей стороны, государственным учреждениям, соцсетям и СМИ нужно усилить процедуры проверки достоверности информации. И наконец, необходимо постоянно информировать общество об опасностях и пределах возможностей Deepfake».