Редакция ЗВЕЗДА АНАЛИТИКА разбирается в деталях.
Обман и манипулирование средствами массовой информации всегда были частью коммуникаций военного времени, но никогда прежде практически ни у одного участника конфликта не было возможности генерировать реалистичные аудио, видео и текстовые сообщения политических чиновников и военных лидеров своего противника. По мере того, как искусственный интеллект (ИИ) становится все более изощренным - проблема, которую фейки создают для онлайн-информационных сред во время вооруженных конфликтов, будет только расти.
Чтобы справиться с этой ней, сотрудникам служб безопасности и директивным органам требуется гораздо большее понимание о том, как работает эта технология.
Дипфейки могут использоваться для широкого спектра целей, включая фальсификацию приказов военных лидеров, для создания паники среди общественности и вооруженных сил, а также для придания легитимности войнам и восстаниям. Хотя эти тактики часто будут терпеть неудачу, их потенциал воздействия на коммуникации и обмен сообщениями противника означает, что сотрудники службы безопасности и разведки неизбежно будут использовать их в широком спектре операций.
Учитывая важность надежной информационной среды для общества, правительствам, как правило, следует опасаться подделок, которые угрожают подорвать доверие. Тем не менее, сотрудники служб безопасности и разведки стран будут иметь сильные стимулы для использования цифровых подделок против своих противников, особенно в контексте вооруженного конфликта.
В результате странам следует рассмотреть возможность разработки кодекса поведения для использования правительствами дипфейков, опираясь на существующие международные нормы и прецеденты. Все эти фейки возможны только благодаря недавним прорывам в «машинном обучении».
Итак, обратимся к истории: первая статья о “машинном обучении” была опубликована в конце 1950—х годов, и до недавнего времени ее перспективы намного превосходили ее эффективность. Однако за последние 15 лет машинное обучение наконец-то реализовало свой первоначальный потенциал. Обусловлено широкой доступностью мульти-модальных данных (например, новостных статей, социальных сетей, аудио, изображений и видео), а также значительным снижением затрат на высокопроизводительный центральный процессор (CPU) и вычислительные кластеры графических процессоров (GPU), методы машинного обучения в настоящее время распространены повсеместно. Эти методы используются для обнаружения мошенничества с кредитными картами, управления автономными транспортными средствами и отслеживания каналов социальных сетей среди многих других приложений.
В основе недавней революции машинного обучения лежат нейронные сети, часто называемые “глубоким обучением”. При достаточном количестве данных и вычислительной мощности модели глубокого обучения могут быть чрезвычайно мощными, в том числе для создания реалистичных изображений, аудио и текста. Действительно, они настолько эффективны, что о них уже говорят, как о “глубокой подделке”. Чтобы сгенерировать видео deepfake, конкретный deep обычно используемый алгоритм обучения называется GAN, сокращение от порождающей состязательной сети. Хотя существует множество вариаций GAN, все они используют глубокие нейронные сети и следуют одной и той же простой архитектуре. Для компьютерного зрения, или области искусственного интеллекта, которая позволяет компьютерам интерпретировать визуальные изображения и реагировать на них, GAN состоит из двух ключевых компонентов: алгоритма генератора, который пытается сформировать поддельное изображение, и алгоритма дискриминатора, который пытается отличить реальные изображения от поддельных. Представьте, что кто -то хочет сгенерировать синтетические изображения Белого дома, используя набор реальных изображений.
Вначале генератор создаст изображение, которое, по сути, является случайным и совсем не похоже на Белый дом. Алгоритм дискриминатора позволит быстро и легко идентифицировать изображение генератора, как поддельное по сравнению с реальными изображениями. Теперь генератор узнает, что он должен сделать изображение, отличное от ранее сгенерированного. Основываясь на этой обратной связи, алгоритм генератора может затем сделать лучшую подделку в попытке обмануть дискриминатор. По мере повторения процесса с течением времени генератор будет моделировать все лучшие и лучшие изображения, а дискриминатор будет все хуже и хуже отделять реальные изображения от поддельных. GAN сходится, когда стабильное состояние достигается таким образом, что ни производительность дискриминатора, ни производительность генератора не продолжают улучшаться с течением времени.
Хотя GAN были впервые разработаны в 2014 году, они быстро развивались по мере улучшения вычислительной мощности, доступных данных и алгоритмов. GAN теперь существуют для любой формы цифрового контента, от статических изображений и текста до потоков аудио и видео. Кроме того, алгоритмы, лежащие в основе GAN, часто выпускаются с лицензиями и открытым исходным кодом, что означает, что любой пользователь может скачать их. Главным ограничением является не техническая экспертиза, а скорее наличие необходимых обучающих данных (которые правительства обычно могут собрать за считанные дни) и вычислительной мощности (обычно это центральный процессор) для создания убедительной глубокой копии конкретного человека или целевого изображения. Государства и негосударственные субъекты, могут использовать дипфейки для разных целей. Приведенный ниже список приложений ограничен только творческим потенциалом тех, кто разрабатывает эти подделки.
Страны уже давно используют ложную информацию и устраивают беспорядки в качестве предлогов для войны.
Как аудио, так и визуальный контент может быть создан и вложен в уста командиров. Некоторые ложные приказы могут включать видеозапись, на которой солдатам приказывают сложить оружие, отступить, применить химическое оружие или иным образом поощрять массовую капитуляцию, чтобы выбить хорошо защищенные войска или сделать силы уязвимыми.
Сеять смятение. Когда гражданским лицам и солдатам приказывают игнорировать инструкции лидеров как потенциальные подделки, они также могут непреднамеренно игнорировать законные приказы, создавая путаницу в опасное время. Операции по дезинформации наиболее эффективны, когда правда и вымысел смешаны воедино так, что люди не могут различить разницу. В Габоне возможная фальсификация выступления президента страны с высокопарной, невыразительной речью заставила его критиков усомниться в способности лидера править, и военные предприняли попытку государственного переворота. Точно так же новостные организации могут не решаться сообщать о последних новостях, опасаясь, что их могут ввести в заблуждение подделкой. Посеять замешательство также можно на тактическом уровне во время конфликта. Представьте, что deepfake показал изображение вражеских солдат, входящих в город или поднимающих флаг в захваченном городе. Это может заставить защитников поверить, что их позиции не поддаются обороне, и, таким образом, вынудить их бежать.
Разделенные армии обычно сражаются плохо, и в результате поддержание сплоченности подразделений и духа корпуса является важной частью обучения и лидерства. Противники могут создавать контент, в котором высшие политические или военные лидеры выражают презрение к своим солдатам, смеются над убитыми и ранеными или иным образом дискредитируют их.
Следует рассмотреть вопрос о создании подделок, поскольку существуют законные опасения по поводу потенциального воздействия глубоких подделок на информационную среду и, как следствие, на дипломатическую, политическую и военную среду. Решение о создании и использовании глубоких подделок не должно приниматься легкомысленно и не без тщательного рассмотрения компромиссов. Использование глубоких подделок, особенно тех, которые предназначены для атаки на важные цели в условиях конфликта, затронет широкий спектр государственных учреждений и агентств.
Каждая заинтересованная сторона должна иметь возможность внести свой вклад по мере необходимости.
📌Подписывайтесь на нас в Телеграм @zvezda_analytics