Найти в Дзене
Солянка

Информация к размышлению об ИИ

Теперь лицо, созданное ИИ вызывает больше доверия чем реальное...

Искусственный интеллект (ИИ) – синтезированный текст, аудио, изображения и видео используются в качестве оружия для создания интимных изображений без согласия, финансового мошенничества или дезинформации. Оценка фотореализма лиц, синтезированных искусственным интеллектом, показывает, что механизмы синтеза способны создавать лица, которые неотличимы и вызывают больше доверия чем реальные лица.

Синтез звука, изображений и видео на базе ИИ, так называемые "глубокие подделки" могут развлекать, если это Голливуд, или обманывать.

Популярным механизмом синтеза контента являются GAN-сети. Такая сеть противопоставляет две нейронные сети — "генератор" и "дискриминатор" друг другу. Чтобы синтезировать изображение вымышленного человека, генератор начинает со случайного массива пикселей постепенно учится синтезировать реалистичное лицо. На каждой итерации дискриминатор учится отличать синтезированное лицо от набора реальных лиц. В течение нескольких итераций генератор учится синтезировать все более реалистичные лица до тех пор, пока дискриминатор не сможет отличить его от реальных лиц (см. рис. 1, например, реальные и синтетические лица).

Два верхних ряда - наиболее точно классифицированные лица
Два нижних ряда - наименее точно
Два верхних ряда - наиболее точно классифицированные лица Два нижних ряда - наименее точно

Каковы потенциальные угрозы?
- создание интимных изображений без согласия
- мошенничество
- дезинформация
- и самое печальное, что "Глубокие подделки" ведут к тому, что подлинность любой неудобной информации или нежелательной записи может быть поставлена под сомнение.

Ученые из Калифорнийского университета в Беркли провели ряд экспериментов, в ходе которых участников просили отличить лица, синтезированные с помощью нейросети StyleGAN2, от реальных.

Как показали результаты исследования, искусственно сгенерированные лица оказались не только очень фотореалистичными, но и почти неотличимыми от реальных лиц и даже вызывающими больше доверия у участников. По словам экспертов, искусственный интеллект преодолел эффект «зловещей долины» и способен создавать правдоподобные лица.

В первом эксперименте 315 участников классифицировали 128 лиц, взятых из набора из 800 изображений, как настоящие или синтезированные. Точность участников составила 48%.
Во втором эксперименте 219 новых участников прошли обучение и получили подсказки о том, как классифицировать лица. Несмотря на их обучение, уровень точности определения лиц повысился только до 59%.
В третьем исследовании 223 участникам было предложено оценить подлинность 128 лиц, взятых из того же набора из 800 изображений, по шкале от 1 (очень ненадежно) до 7 (очень достоверно). Средняя оценка искусственных лиц была на 7,7% более достоверной, чем средняя оценка реальных лиц.

«Интересно то, что искусственно сгенерированные лица вызывают больше доверия, чем настоящие лица», — отметили ученые.

Лица с темным оттенков кожи были оценены как более заслуживающие доверия, чем лица из Южной Азии. Женские лица были оценены как значительно более надежные, чем мужские.

-3

Тут четыре наиболее (вверху) и четыре наименее (Внизу) заслуживающих доверия лица. Первые три наиболее заслуживающих доверия лица являются синтетическими (S), в то время как нижние четыре наименее заслуживающих доверия лица являются реальными (R). Улыбающееся лицо с большей вероятностью будет оценено как заслуживающее доверия, но 65,5% наших реальных лиц и 58,8% синтетических лиц улыбаются, поэтому одно только выражение лица не может объяснить, почему синтетические лица оцениваются как более заслуживающие доверия.

Итак, что делать для защиты от дипфейков?

Эксперты предлагают некоторые меры, но реально на эту тему сказать пока нечего!

Источник:

AI-synthesized faces are indistinguishable from real faces and more trustworthy