Найти в Дзене
Не только ИИ

Как остановить Искусственный Интеллект?

Многочисленные конференции по ИИ (AI - в английской транскрипции) в конце года подняли много вопросов, в частности, как по развитию, так и по безопасности новой технологии. Реальный итог ( безусловно сильно упрощенный ) подвел вопрос студента СПБГУ ( который оканчивал и сам президент ). По технологии Дипфейк (англ. deepfake), то есть подмены, нейросеть накладывает нужное изображение на исходное. Таким образом подменяется лицо, мимика, жесты и голос в видео и звуковой дорожке, при этом сохраняется артикуляция исходного изображения. Сам ролик Дзен публиковать не советует, ввиду наличия авторских прав телеканалов, поэтому просто ставлю ссылку. Посмотреть сам эпизод итогов года с Путиным можно здесь. Конечно, технология известна уже широко. В России применялась, например, для съемок сериала Диверсант в 2020 году, чтобы "оживить" артиста Владислава Галкина. При этом роль играл другой актер, на лицо которого накладывалось лицо уже умершего к этому времени Галкина, например, можно посмотреть

Многочисленные конференции по ИИ (AI - в английской транскрипции) в конце года подняли много вопросов, в частности, как по развитию, так и по безопасности новой технологии. Реальный итог ( безусловно сильно упрощенный ) подвел вопрос студента СПБГУ ( который оканчивал и сам президент ).

По технологии Дипфейк (англ. deepfake), то есть подмены, нейросеть накладывает нужное изображение на исходное. Таким образом подменяется лицо, мимика, жесты и голос в видео и звуковой дорожке, при этом сохраняется артикуляция исходного изображения.

Фото из Яндекс-фото.
Фото из Яндекс-фото.

Сам ролик Дзен публиковать не советует, ввиду наличия авторских прав телеканалов, поэтому просто ставлю ссылку. Посмотреть сам эпизод итогов года с Путиным можно здесь.

Конечно, технология известна уже широко. В России применялась, например, для съемок сериала Диверсант в 2020 году, чтобы "оживить" артиста Владислава Галкина. При этом роль играл другой актер, на лицо которого накладывалось лицо уже умершего к этому времени Галкина, например, можно посмотреть отрывки здесь.

Разработаны и совершенствуются также и программы распознавания дипфейков. Они находят несоответствия в картинках: сгенерированой и ожидаемой. Однако, это становится тем сложнее, чем качественнее сам дипфейк, то есть, чем большее количество входной информации обработала обучающая часть программы для замены исходника и чем большее количество параметров было ею использовано для замены в исходном изображении.

Как же бороться с дипфейками?

В Калифорнии, например, запрещено законодательно " использование обманчивых аудио и видео материалов с кандидатами в течение 60 дней до выборов".

В России также рассматривается возможность законодательной защиты прав граждан, если их права были нарушены путем применения фальсифицированных аудио и видео материалов. Но, как замечают юристы, если гражданину не был причинен моральный или материальный ущерб, запрет применения дипфейка обосновать сложно.

Сложно решить и этическую составляющую вопроса. В частности, применение изображения актеров или певцов для создания медиа материалов без их участия.

Если же созданный видеоряд был выпущен, то вопрос кому принадлежат авторские права: актерам (певцам, танцорам и др.), чьи изображения были использованы, операторам, смонтировавшим материал или авторам, без одобрения которых был создан контент? А, может самому ИИ?

Горилла, сделавшая селфи, тоже может быть автором фото.
Горилла, сделавшая селфи, тоже может быть автором фото.

Конечно, если бы фильм о Владимире Высоцком ("Высоцкий. Спасибо, что живой" ) снимался в настоящее время, Сергею Безрукову не пришлось бы по четыре часа гримироваться каждый день. Достаточно было бы просто играть.

Конечно, Президент ответил на вопрос студента в своем ключе. Не можешь предотвратить, постарайся возглавить. А уж, если возникают осложнения для всех, то и договариваться должны все вместе.

Ну, что же. Подождем, когда созреют остальные для договоров.