Найти тему

Дипфейки detected!


Учёные из Санкт-Петербургского Федерального исследовательского центра РАН разработали методы автоматического распознавания дипфейков.

Дипфейки — это фото и видео, созданные или изменённые с помощью искусственного интеллекта. Синтезированные с помощью нейросетей дипфейки выглядят очень реалистично, поэтому их сложно отличить от настоящих изображений и видео.

Эти технологии используются не только в создании качественного контента, например, для соцсетей, их освоили и мошенники: киберпреступники применяют дипфейки для шантажа, подделки документов и фотографий.

Разработчики – борцы с киберпреступностью обучили нейросеть анализировать видео и фото и указывать на признаки ИИ-генерации контента. c При помощи разработки ученых дипфейки будут выявляться автоматически через обнаружение манипуляций по улучшению качества фото или видео.

Сейчас ученые СПб ФИЦ РАН работают над созданием открытой библиотеки интеллектуальных методов обнаружения поддельных и измененных фотографий лиц. Библиотека будет выявлять подделки и определять их тип.

Проект «Библиотека интеллектуальных методов для обнаружения преднамеренной подмены, модификации или генерации лица человека в цифровых фотографиях» поддержан грантом Фонда содействия инновациям.

Подробнее здесь: clck.ru/3CKRLD.

Технопарк Санкт-Петербурга – инновации начинаются здесь
Дипфейки detected!  Учёные из Санкт-Петербургского Федерального исследовательского центра РАН разработали методы автоматического распознавания дипфейков.
1 минута