Специалисты подчеркнули, что в этом году технологии создания и модификации видео, а также клонирования голосов существенно улучшились. На фоне этого современные дипфейки становятся все сложнее распознать. Каждый второй житель РФ к концу 2025-го может столкнуться с дипфейк-атакой, заявили специалисты по ИИ. По данным «Известий», дипфейками называют фото или видео, на которых голос или внешность человека «подделаны» с помощью нейросети. Эксперты отметили, что мошенники могут в режиме реального времени имитировать разговор с якобы другом, который просит деньги, или коллегой, срочно требующим помощи. Специалисты подчеркнули, что в этом году технологии создания и модификации видео, а также клонирования голосов существенно улучшились. На фоне этого современные дипфейки становятся все сложнее распознать. Видеокружки и голосовые сообщения в мессенджерах являются одними из самых популярных способов коммуникации. В связи с этим они представляют собой потенциально наибольшую угрозу для использова