IT-эксперт Илья Костунов в беседе с изданием «Ридус» рассказал, чем опасны дипфейки и как они устроены.
По словам специалиста, все уже знают, что компьютер может распознавать изображения, однако точно так же он способен их воссоздавать. Когда совмещаются две нейросети, генератор и дискриминатор, то появляется возможность создавать изображения, которые похожи на настоящие. Их фактически будет невозможно отличить от реальных даже с помощью профессиональной экспертизы.
Как пояснил Костунов, генератор создает контент, а дискриминатор проверяет его на достоверность. Компьютер сам уточняет сходство фейкового видеоролика так, чтобы потом даже специалист не смог распознать фальшивку.
IT-эксперт отметил, что данная технология активно применяется в кинематографе, но в том числе она может использоваться для создания фейковых видеороликов или дипфейков.
Илья Костунов подчеркнул, что особенно часто такая технология используется в жанре порнографии, когда профессиональных актеров таких фильмов заменяют на публичных личностей. В результате нейтральная технология может применяться для манипуляцией общественным мнением и обмана людей.