Пусть ложь сердец прикроют ложью лица (Уильям Шекспир)
Технология не хороша и не плоха сама по себе — всё зависит от того, как мы её применяем (Маршалл Маклюэн).
***
Deepfake?
“Но это же не я, верите?!” - такие фразы будут периодически звучать в ближайшем будущем при просмотре видеороликов в соцсетях. Возможно...
Продолжая темы, связанные с развитием технологий искусственного интеллекта, поднятые в прошлых статьях, предлагаю сегодня поговорить о дипфейке (англ. deepfake). Слово на слуху, тема достаточно скандальна, чтобы появилось желание посмотреть на нее под разными углами зрения. А заодно выясним, можно ли использовать данную технологию в образовании, все же именно это направление развития технологий ИИ больше соответствует тематике моего блога..
Но начнем мы не с дипфейка. А с общих проблем общения и получения информации в современном обществе. Множественные исследования в области механизмов социального взаимодействия уже более двадцати лет назад (!) выявили глобальную нарастающую проблему - в гиперинформационной среде происходит утрата навыков социального взаимодействия, “живое” взаимодействие между людьми все больше смещается в область виртуальную, обеспечиваемую электронными средствами.
Посмотрите на графики, опубликованные в издании Biologist еще в 2009 году (Volume 56 Number 1, February 2009).
По годам показано соотношение социального взаимодействия и времени использования электронных медиа-средств. Примерно в 1997 году это время сравнялось, а уже к 2007-му время, проводимое с гаджетами, в 4 раза превысило время общения в реальном мире.
С тех пор кривые разошлись еще дальше.
Можно возразить, что это исследование проводилось не в России, но результаты оказались близки в разных странах, а последние исследования времени нахождения детей и подростков в соцсетях вообще не в нашу пользу.
Пока по теме особенностей современного потребления информации и возникающих в связи с этим проблем рекомендую посмотреть выступление президента Высшей школы методологии, руководителя лаборатории нейронаук и поведения человека Сбербанка, основателя интеллектуального кластера «Игры разума» Андрея Курпатова.
Мы же возьмем за основу тот факт, что сейчас значительную часть информации человек получает из сети. При этом заметно явное смещение интереса от текстовых материалов в сторону видеоконтента и интернет-мемов, как правило игрового, юмористического характера. Налицо и еще одно веяние времени: пользователи Интернет склонны больше доверять информации, распространяемой в сети, чем официальным СМИ, особенно телевидению.
А теперь представьте, что появилась доступная технология, позволяющая заменять часть контента фейковым, поддельным, при этом практически неотличимым от реального. И как вам мир, в котором нельзя доверять своим глазам? Добавлю, что и ушам тоже, так как эксперименты с подменой голоса начались гораздо раньше и уже в настоящее время активно используется теми же телефонными мошенниками. И что нас ждет дальше с доверием к новостям и возможностям манипуляции с информационными событиями?
Главная проблема именно в доступности данной технологии. Мы же нормально воспринимаем тот факт, что профессионалы на киностудиях создают целые фантастические миры, "настоящие" до ощущения реализма происходящего. В принципе, не особо взволновали общество и первые эксперименты по замене лица одного человека на лицо другого в демонстрационных роликах крупных IT компаний, т.к. подобными технологиями владели лишь эксперты по искусственному интеллекту и компьютерным спецэффектам, да и вычислительные мощности для таких манипуляций требовались колоссальные.
Но время шло, нейросети плотно вошли в нашу жизнь, предоставляя обычным пользователям все больше возможностей. Вот и процесс создания фальшивого видеоконтента значительно упростился с распространением технологий машинного обучения и выходом на рынок пользовательских приложений нового поколения. Мы вступили в эру дипфейка и теперь надо как-то с этим жить.
Само слово deepfake соединило в себе два понятия: глубокое обучение (англ. Deep Learning), то есть обучение нейросетей, и подделку (англ. Fake). Создал технологию (одна из версий) в 2014 году студент Стэнфордского университета Ян Гудфеллоу, который в последнее время работает в Apple Inc. в качестве директора по машинному обучению в группе специальных проектов. По сути, это основанная на искусственном интеллекте технология синтеза изображений. Используется для замены элементов изображения на заданные образы. В основе данной технологии обычно лежат генеративно-состязательные нейросети (GAN). Если коротко: программа обучается на фотографиях объекта и создает изображение, которое сравнивается с оригиналом, пока результат не выйдет на заданный уровень. Во время обучения анализируется большое количество снимков и ИИ обучается тому, как может двигаться и выглядеть в разных ситуациях заданный объект. А далее объединяет эти данные, создавая видео с “участием” данного объекта, или накладывая его подвижное изображение на другое видео. Можно сказать и еще проще - нейросеть по пикселям собирает ролик на основе предварительного анализа готовых изображений. Сказать-то “проще” можно, но только представьте себе, какие фантастические технологии оказались в распоряжении рядовых пользователей с выходом удобных приложений для подобных трансформаций.
В настоящее время дипфейк-видео можно заказать у специализированных студий, таких как Dowell и Reface.
Цена работы по преображению героя присланного вами ролика начинается от $1000.
Но создать такой ролик теперь можно и самостоятельно, множество компаний во всем мире работает над удобными приложениями. Одна из них, Synthesia. выпустила сервис Synthesia Create, в котором, как в конструкторе, можно выбирать виртуальных персонажей, фон, язык, вводить текст и создавать готовый ролик.
Это гениальные разработки, позволяющие обычному пользователю прикоснуться к миру высоких технологий, освоить азы машинного обучения (для создания по-настоящему правдоподобного видео-ролика с подменой персонажа придется долго "учить" систему производить нужные замены). Но готовы ли к этому миллионы и миллиарды пользователей? Может быть они начали создавать веселые и умные мультфильмы с интересными персонажами? Ну да, сейчас…
Так уж получается, что самые современные технологии не делают человека лучше, умнее, честнее. Вот и с дипфейком так произошло. Как только технология стала более-менее доступна, в сеть начали поступать ролики, дискредитирующие публичных личностей, изображений которых множество в открытом доступе. Вы без труда найдете информацию о таких случаях, не хочу здесь их описывать.
Появились и видео - каналы c дипфейк-роликами. И здесь можно увидеть примеры по-настоящему интересных материалов, как технологически, так и содержательно. Например, можно поискать ролик "Malaria must die", созданный нейросетью на основе фотографий Дэвида Бекхэма. Спортсмен призывает людей бороться с малярией.
Очень жаль, что столь совершенные технологии не всегда попадают в хорошие руки. К сожалению, желание пользователей "хайпануть" в соцсетях чрезмерно велико. А выделиться можно, в основном, на негативном контенте. Вот и распространяется по сети вирус дипфейкового видео низкоуровневого содержания. Хуже этого только тот факт, что технологию стали использовать и для сведения межличностных счетов, дискредитации конкурентов по бизнесу и прочих, столь же значимых задач.
Одну из таких нашумевших историй опубликовала The Inquirer от 12 марта 2021 года.
Раффаэла Спон (Пенсильвания, США) пыталась убрать соперниц дочери по чирлидинг-команде с помощью дипфейков. Она анонимно отправила тренерам дипфейк-фотографии и видео, на которых девушки пили, курили или были обнажены.
Такие же материалы Спон отправляла и самим девушкам, призывая покончить с собой в анонимных сообщениях. Пострадали, как минимум, три девушки. История закончилась более-менее "благополучно", в суде была доказана поддельность материалов, для этого привлекались специалисты IT компании, Спон понесет наказание.
Но нанесенный моральный ущерб фигурантам дела? Его не покроет свершившееся правосудие, психологические травмы лечатся долго, а материалы, попавшие в сеть, так просто не вычистишь. А теперь перенесите подобное дело в наши российские реалии? Многие ли смогут позволить себе судебные издержки и IT компанию в качестве экспертов?
Согласно данным компании по кибербезопасности Sensity, количество дипфейков растет в геометрической прогрессии, удваиваясь каждые полгода.
Просто сделайте вывод о возможности вашего попадания в дипфейк, а заодно прикиньте, сколько своих изображений, которые можно использовать для обучения нейросетей, вы публикуете в соцсетях… Да, технология еще мало используется в российском сегменте сети, но отставание стремительно сокращается.
В этом вопросе надо очень быстро искать юридические решения, так как на текущий момент жертвы дипфейка практически беззащитны.
Законодательная система отстает, а стремительно растущие ряды потребителей контента стимулируют быстрый рост дипфейк-индустрии. На текущий момент все же разработано несколько законодательных актов. В России подписан президентом закон о лишении свободы за клевету в интернете. Но конкретно дипфейков эти законодательные рамки не касаются, или затрагивают опосредованно.
И вот эта юридическая пустота очень настораживает. В новом информационном мире на подобные угрозы надо научиться реагировать быстро и эффективно. Скажем, вводить обязательность специальных меток, "цифрового следа" на всех материалах, создаваемых с использованием технологии дипфейк. А за выпуск в сеть приложения или контента без таких меток предусматривать юридическую ответственность. При современных компьютерных возможностях создание таких меток вполне реализуемый вариант. И тогда уже на стадии публикации в соцсетях подобные материалы будут иметь соответствующие теги и подвергаться дополнительной проверке. Это как минимум.
Грустно, что при обсуждении столь выдающейся новой технологии пришлось начать с негативных аспектов ее применения. Но слишком уж на виду эта сторона, заслоняет позитивные и весьма перспективные сценарии использования. А таких множество уже сейчас.
Например, нейросеть GauGAN от компания NVIDIA, способна превращать наброски-скетчи в реальные изображения. Геймдизайнеры могут использовать программу для создания локаций для игр, архитекторы - собирать из чертежей проекты зданий и инженерных сооружений.
Множество сценариев использования дипфейк в рекламной индустрии, например – локализация роликов со знаменитостями. Записав один ролик на языке оригинала, можно затем сделать так, что в разных странах знаменитость будет обращаться к зрителям на их родном языке, при этом будет правильная артикуляция и смысловое содержание.
Ожидается и массовое использование технологии в кинопроизводстве, что сократит затраты на съемочный процесс и монтаж материала.
Возможности создания виртуального "аватара" на основе изображений реального человека уже используются в индустрии моды. Существуют виртуальные модели, демонстрирующие новые коллекции модных домов. Если расширить тему, можно ожидать, что в скором времени мы сможем примерять одежду, обувь, прически в виртуальных примерочных.
Возникает и тренд на использование дипфейк в образовании.
Рекламный холдинг WPP обучает сотрудников при помощи нейросети. Виртуальный наставник ведет обучение на английском, испанском и китайском языках, обращаясь к каждому сотруднику лично по имени. Учитывая, что порядка 70% сотрудников мировых компаний предпочитают в качестве обучающих материалов именно учебные видеокурсы (исследование компании Wyzowl за текущий и предыдущие года), можно представить огромные перспективы технологии именно в этой отрасли. И здесь не только удобная и быстрая локализация учебных материалов и возможность использовать единый контент в разных странах расположения офисов компании. В перспективе виртуальные помощники в обучении смогут адаптироваться к каждому студенту, изменяя темп, а иногда и варьируя содержательную часть в соответствии с каждым типом восприятия. Добавьте к этому возможность легкого изменения содержательной части, ведь при использовании данной технологии не потребуется переснимать лекции с изменениями, достаточно будет просто изменить текст в сценарии.
Да, это будет новая эпоха в создании образовательного контента. Хотя и возникают сразу мысли о возможностях манипуляции сознанием, о грядущем уходе пользователей из реальной жизни в виртуальное общение с использованием продвинутых аватар… Но тут, как обычно, все в наших, человеческих руках. И как будем использовать новый инструментальный "молоток" – создавать новые конструкции или бить по голове соседа, определяем мы сами.
Подводя итоги.
Deepfake — технология, основанная на искусственном интеллекте, которая позволяет создавать поддельные изображения, видео и аудио, максимально похожие на реальные.
Проблемы, создаваемые технологией Deepfake
- Дезинформация и манипуляции
Deepfake может использоваться для создания фейковых новостей, поддельных выступлений политиков или знаменитостей. - Киберпреступления
Мошенники используют Deepfake для вымогательства, кражи личных данных или обмана через видеозвонки. - Угрозы приватности
Deepfake позволяет создавать компрометирующие материалы с участием реальных людей.
Пример: «Дипфейк-порнография» с участием знаменитостей и обычных людей. - Эрозия доверия
Люди начинают сомневаться в подлинности любого контента, что подрывает доверие к СМИ, политикам и даже близким.
Позитивные варианты использования Deepfake
- Образование
Языковые курсы: Создание реалистичных диалогов с носителями языка.
Исторические реконструкции: Deepfake позволяет «оживить» исторических личностей. Например, ученики могут увидеть, как Цезарь произносит речь или Эйнштейн объясняет теорию относительности.
Медицинское обучение: Виртуальные пациенты с реалистичными симптомами для тренировки врачей. - Искусство и развлечения
Режиссёры используют Deepfake для восстановления лиц актёров (например, молодой Люк Скайуокер в «Мандалорце»).
Музыканты «возрождают» легендарных исполнителей. - Маркетинг и реклама
Персонализированные рекламные ролики с участием «цифровых двойников» клиентов.
Пример: Бренды используют Deepfake для создания уникального контента, например, виртуальных моделей. - Социальные инициативы
Deepfake помогает в создании образовательных кампаний. Например, видео с участием известных людей, призывающих к бережному отношению к природным ресурсам, экологической ответственности и т.п..
Подробнее. Deepfake в образовании: примеры и перспективы
- Интерактивные лекции
Преподаватели могут создавать виртуальные лекции с участием учёных, писателей или исторических фигур. - Геймификация обучения
Ученики взаимодействуют с виртуальными персонажами, что делает процесс обучения более увлекательным. - Поддержка инклюзивного образования
Deepfake помогает создавать материалы для детей с ограниченными возможностями, например, видео с сурдопереводом или адаптированные уроки. - Тренинги для учителей
Виртуальные сценарии для отработки сложных ситуаций в классе (например, конфликты между учениками).
Этические и правовые аспекты
- Регулирование
Необходимы законы, запрещающие использование Deepfake без согласия человека. - Технологии распознавания
Компании (например, Microsoft, Google) создают инструменты для выявления Deepfake. - Образовательные программы
Важно учить людей критически оценивать информацию и распознавать подделки.
Итог
Deepfake — это мощный инструмент, который может быть как оружием, так и инструментом прогресса. В образовании он открывает новые горизонты, но требует строгого контроля и этического подхода. Будущее технологии зависит от того, как общество научится её использовать.