Искусственный интеллект может использоваться для обманного редактирования фотографий или видео таким образом, что это может создать проблемы для общественного доверия к информации, и Конгресс хочет знать, что делается, чтобы это остановить.
Двухпартийная группа представителей, включая представителей Адама Шиффа, штат Калифорния, Стефани Мерфи, штат Флорида, и Карлоса Курбело, штат Флорида, на прошлой неделе направила письмо директору национальной разведки Дэну Коутсу с просьбой предоставить отчет по «последствия» так называемой технологии «дипфейка».
«Вы неоднократно поднимали тревогу по поводу кампаний дезинформации на наших выборах и других попыток усугубить политический и социальный раскол в нашем обществе, чтобы ослабить нашу нацию», - говорится в письме. «Мы глубоко обеспокоены тем, что в скором времени злоумышленники из-за рубежа могут использовать глубокую фальшивую технологию». В письме утверждается, что при нечестивом использовании эта технология может «подорвать доверие общества к записанным изображениям и видео как объективным изображениям реальности».
Запрошенный отчет, наряду с не секретной версией для публичного рассмотрения, должен включать обзор того, как иностранные субъекты могут использовать технологию deepfake, любые подтвержденные или подозреваемые случаи использования этой технологии иностранными субъектами на сегодняшний день, информацию о контрмерах, которые правительство может принять или предпринимает. и оценка ответственности разведывательного сообщества на этой арене. Представители также хотят, чтобы Коутс принял то, что может сделать сам Конгресс, чтобы обуздать использование дипфейков.
Дипфейки могут показаться пугающими, но есть исследователи, работающие над борьбой с использованием этой технологии. Команда Media Forensics (MediFor) Управления перспективных исследовательских проектов Министерства обороны США (DARPA) работает над разработкой инструмента, который может обнаруживать дипфейки, даже если человеческий глаз не может.
Один из способов, с помощью которого команда может распознать манипулируемое изображение (метод, разработанный Сивэй Лю , профессором Университета Олбани - Государственный университет Нью-Йорка), - это посмотреть на то, как моргает лицо. Поскольку дипфейки обучаются на неподвижных изображениях, получающееся видео часто представляет собой лицо, которое моргает неестественным образом или не мигает совсем.
Однако проблема с исследованиями по борьбе с дипфейками заключается в том, что это гонка со временем - каждое продвижение - это также возможность для фальсификатора стать более смекалистым.