Дипфейк (deepfake, от deep learning — «глубокое обучение» и fake — «подделка») — синтез правдоподобных поддельных изображений, видео и звука при помощи искусственного интеллекта. Также дипфейками называют контент, полученный в результате этого синтеза. (Энциклопедия «Касперского»)
И это действительно проблема, которая в ближайшем будущем будет касаться не только публичных людей, но и с распространением информации, взломами и утечками личных данных, обычных законопослушных граждан.
Представьте простую ситуацию буллинга, когда конкретного человека начинают травить, компрометировать, используя его личные данные, измененные фото, какие-то тексты и аудиозаписи. В лучшем случае его (этого человека) выживут из коллектива. Но если эта дезинформация будет в том числе ложиться черным пятном на его семью, друзей, близких?
И то что государственные мужи озадачились этой проблемой и хотят ввести жёсткие нормы администрирования в этом направление – это совершенно правильная реакция на происходящее. Возможно, что некоторые запретительные, ограничительные и/или даже карательные меры, помогут в ближайшем будущем сгладить негативные последствия применения дипфейков в корыстных и негуманных целях.
Здесь же хочу сделать простое предложение, которое возможно будет некоторой гарантией от злого умысла людей, реализующих и применяющих дипфейки.
На мой взгляд, введение обязательной маркировки контента производимого с помощью систем Искусственного интеллекта полностью или даже частично, должно обеспечить прозрачность происхождения такого контента.
Самое главное - требуется обязать разработчиков систем Искусственного интеллекта задавать маркировку производимого контента.
На каждом кадре видеоизображения, в верхнем углу должна быть указана информация с названием провайдера ИИ, название ИИ, уникальный код контента генерируемый системой, код автора запроса к ИИ (инициатора создания контента). В качестве кода автора можно использовать номер мобильного телефона, ИНН, или другой контролируемый идентификатор. Тоже самое и в отношении провайдера ИИ, применение ИНН или другого контролируемого идентификатора, к примеру электронной подписи. Такая же информация должна быть продублирована в нижнем противоположном углу кадра.
Для фотоматериалов, картинок и т.п., аналогичный способ.
В текстовых материалах – маркировка каждой страницы выданного ИИ текста, вверху и внизу (колонтитулы), а также каждого отдельно используемого блока или куска текста, если они выдернуты из контекста.
Аудиоматериалы – должны маркироваться аудио сообщением в начале и в заключении каждого отдельного трека записи, с голосовым указанием идентфикационных данных контента выпущенного ИИ. Если контент разделяется, то каждый отдельный блок должен маркироваться таким же образом, в начале и в конце.
Вряд ли иностранные системы ИИ будут сразу придерживаться законодательных правил утвержденных в нашей стране. Но если эти системы, или результаты их творчества, начинают применять наши граждане, и требуемая маркировка у контента отсутствует, то они должны самостоятельно производить подобную маркировку. И если они это не делают, и распространяют дипфейковый контент без маркировки, то здесь применение жестоких наказаний будет оправдано.
А вы как считаете? Какие еще способы защиты от дипфейков можно использовать?