Ученые выработали новый метод защиты от голосового клонирования, который поможет предотвратить возможные мошеннические действия.Ferra
Проект под названием DeFake, разработанный профессором Нинг Чжаном из Университета Вашингтона в Сент-Луисе, предлагает использовать технологию адверсариального искусственного интеллекта для внедрения невидимых искажений в голосовые записи.Ferra
Суть DeFake заключается в том, чтобы создать звуковые искажения, которые незаметны для человеческого слуха, но делают запись непригодной для использования искусственным интеллектом.Ferra
Подобные методы защиты помогают предотвратить злоупотребление чужим голосом и защитить потребителей от мошенничества.Ferra