Найти тему
OVERCLOCKERS.RU

Система TalkLock может помочь в защите контента от дипфейков

За последние годы фото-, аудио- и видеотехнологии значительно продвинулись вперед, что упростило создание убедительного фальшивого мультимедийного контента, например, когда политики поют популярные песни или говорят глупости. С помощью нескольких легко доступных приложений и некоторой практики обычный человек может изменить лицо и голос практически любого человека.

Но доцент кафедры компьютерных наук Университета Мэриленда Нирупам Рой говорит, что манипулирование медиа — это не просто развлечение: небольшое редактирование видео и аудио может быстро привести к изменяющим жизнь последствиям в современном мире. Используя все более сложные технологии, такие как искусственный интеллект и машинное обучение, злоумышленники могут легче, чем когда-либо, эксплуатировать грань между вымыслом и реальностью.

Чтобы бороться с этой растущей угрозой, Рой разрабатывает TalkLock – криптографическую систему на основе QR-кода, которая может проверять, был ли контент отредактирован или нет.

«В 2022 году хакеры распространили в Интернете сфальсифицированное видео президента Украины Владимира Зеленского. В этом фейковом видео он, судя по всему, приказывал своим солдатам сложить оружие и прекратить сражаться за Украину», — сказал Рой, который работает по совместительству в Институте передовых компьютерных исследований Мэрилендского университета.

«Клип был развенчан, но он уже оказал влияние на моральный дух, на демократию, на людей. Вы можете себе представить последствия, если бы он оставался в эфире дольше или если бы зрители не смогли проверить его подлинность».

Рой объяснил, что фейковое видео Зеленского является лишь одним из многих отредактированных видео и аудиоклипов, циркулирующих в сети благодаря недавнему всплеску мультимедийного контента, называемого дипфейками и мелкими фейками.

«В то время как дипфейки используют искусственный интеллект для плавного изменения лиц, имитирования голосов или даже фабрикации действий в видео, мелкие фейки меньше полагаются на сложные методы редактирования и больше на соединение частичной правды с маленькой ложью», — сказал Рой. «Поверхностные фейки в равной степени, если не более, опасны, потому что в конечном итоге они нарастают как снежный ком, и людям становится легче принимать более мелкие выдумки за правду. Они заставляют нас поднимать вопросы о том, насколько точными могут быть наши обычные источники информации».

Наблюдая за последствиями вирусного фальсифицированного видео Зеленского и других ему подобных, Рой понял, что борьба с дипфейками и мелкими фейками необходима для предотвращения быстрого распространения опасной дезинформации.

«У нас уже есть несколько способов противодействия дипфейкам и другим изменениям аудио-видео», — сказал Рой. «Помимо простого поиска очевидных несоответствий в видео, такие сайты, как Facebook, могут автоматически проверять метаданные загруженного контента, чтобы увидеть, изменены они или нет».

Метаданные содержат информацию о медиафайле, например, когда он был записан и на каком устройстве. Редакторы изображений, такие как Photoshop, также оставляют историю редактирования в метаданных фотографии. Метаданные, встроенные в файл, могут использоваться для перекрестной проверки происхождения носителя, но этот широко используемый метод аутентификации не является надежным.

Некоторые типы метаданных можно добавить вручную после записи видео или аудиоклипа, тогда как другие типы можно полностью удалить. Эти недостатки делают использование метаданных по умолчанию в качестве аутентификатора ненадежным, особенно для записей прямых трансляций.

«Большая проблема, с которой мы сталкиваемся, — это то, что происходит на живых мероприятиях, таких как публичное выступление или пресс-конференция», — добавил он. «Любой член аудитории может технически записать видео выступления и загрузить его куда-нибудь, когда ему удобно. И как только оно будет готово, его можно будет бесплатно загружать и перезагружать снова и снова, распространяя его среди множества людей, которые могут иметь злые намерения».

Чтобы решить эту проблему, Рой и его команда создали TalkLock — систему, которая может генерировать QR-код, способный защитить подлинность изображения общественного деятеля.

«Основная идея состоит в том, чтобы использовать такое устройство, как смартфон или планшет, для непрерывной генерации криптографических последовательностей, созданных из небольших фрагментов живой речи, образующих уникальный QR-код. Этот QR-код фиксирует тщательно извлеченные особенности речи», — объяснил Рой.

-2

«Поскольку QR-код будет отображаться на экране устройства вместе с выступающим, любые подлинные записи выступающего также будут содержать QR-код. Наличие QR-кода свидетельствует о проверяемости записи прямого эфира, даже если она размещена в разных форматах в различных социальных сетях или показана по телевидению».

Помимо возможности размещать уникальный маркер на видео или аудиоклипе, TalkLock также может систематически анализировать особенности записи и сравнивать их с кодовой последовательностью, сгенерированной из исходной живой версии. Любые несоответствия, обнаруженные TalkLock, будут означать, что контент был изменен.

«Пока сгенерированный QR-код записывается вместе с говорящим, политические лидеры, общественные деятели и знаменитости смогут защитить свои изображения от использования», — сказал Рой. «Это первый шаг к сохранению целостности нашей информации и защите людей от таких преступлений, как целенаправленная клевета». По словам Роя, это только начало развития TalkLock и его возможностей.

«Хотя может показаться, что актеры и политики — единственные, кому следует беспокоиться, они больше не являются единственными объектами злонамеренных манипуляций со стороны СМИ», — сказал Рой. «Обычные люди сейчас тоже подвергаются риску. Их изображения также могут быть использованы для создания ложных повествований, попыток мошенничества и вымогательства, шантажа и многого другого».

Рой отметил, что публично опубликованные фотографии и видео в социальных сетях, таких как Instagram и Facebook, как никогда облегчают возникновение злоупотреблений и нарушений конфиденциальности.

Чтобы удовлетворить эту потребность в защите на индивидуальном уровне, его команда разрабатывает версию мобильного приложения TalkLock, которая будет более адаптирована к потребностям обычного человека и может использоваться любым владельцем смартфона. Он ожидает, что разработка приложения будет завершена летом 2024 года.

«Люди могут просто держать свой телефон рядом с включенным приложением, пока они говорят, и просто это создаст уровень защиты от вредоносного редактирования», — объяснил он. «Пользователи смогут контролировать свой собственный аудио- и видеосигнал онлайн, используя только свои телефоны».

Рой надеется, что подобные средства защиты вскоре станут доступны публике в качестве настроек по умолчанию на всех мобильных устройствах. Студенты Иртаза Шахид и Накул Гарг, а также студенты Роберт Эстан и Адитья Чаттопадхья работают с Роем над разработкой с открытым исходным кодом программного стека TalkLock и мобильного приложения. Недавно команда опубликовала статью, объясняющую ключевую концепцию проекта, в материалах MobiSys '23, Международной конференции по мобильным системам, приложениям и сервисам.

«Наша конечная цель — обеспечить каждому равный доступ к реальной, достоверной информации», — добавил Рой. «Только тогда мы сможем сделать шаг ближе к действительно справедливому и демократическому обществу».