Найти в Дзене
RuNews24.ru

Эксперты предупредили о росте дипфейк-атак к концу 2025 года

Специалисты подчеркнули, что в этом году технологии создания и модификации видео, а также клонирования голосов существенно улучшились. На фоне этого современные дипфейки становятся все сложнее распознать. Каждый второй житель РФ к концу 2025-го может столкнуться с дипфейк-атакой, заявили специалисты по ИИ. По данным «Известий», дипфейками называют фото или видео, на которых голос или внешность человека «подделаны» с помощью нейросети. Эксперты отметили, что мошенники могут в режиме реального времени имитировать разговор с якобы другом, который просит деньги, или коллегой, срочно требующим помощи. Специалисты подчеркнули, что в этом году технологии создания и модификации видео, а также клонирования голосов существенно улучшились. На фоне этого современные дипфейки становятся все сложнее распознать. Видеокружки и голосовые сообщения в мессенджерах являются одними из самых популярных способов коммуникации. В связи с этим они представляют собой потенциально наибольшую угрозу для использова

Специалисты подчеркнули, что в этом году технологии создания и модификации видео, а также клонирования голосов существенно улучшились. На фоне этого современные дипфейки становятся все сложнее распознать.

Каждый второй житель РФ к концу 2025-го может столкнуться с дипфейк-атакой, заявили специалисты по ИИ.

По данным «Известий», дипфейками называют фото или видео, на которых голос или внешность человека «подделаны» с помощью нейросети. Эксперты отметили, что мошенники могут в режиме реального времени имитировать разговор с якобы другом, который просит деньги, или коллегой, срочно требующим помощи.

Специалисты подчеркнули, что в этом году технологии создания и модификации видео, а также клонирования голосов существенно улучшились. На фоне этого современные дипфейки становятся все сложнее распознать.

Видеокружки и голосовые сообщения в мессенджерах являются одними из самых популярных способов коммуникации. В связи с этим они представляют собой потенциально наибольшую угрозу для использования аферистами после звонков. Кроме того, в отличие от звонков, у которых есть определители номера и другие способы защиты, у голосовых сообщений и кружков нет возможности проверить их источник, подчеркнули в пресс-службе MTS AI.

Ранее сообщалось, что фальшивое видео с Сергеем Аксеновым о запрете Дня Победы сделано мошенниками.

________________

Подпишитесь на наш канал, ставьте лайки и пишите свои комментарии, этим вы поможете донести важную информацию до большего количества людей.