Adobe Research в сотрудничестве Северо-Западным университетом представили новую генеративную ИИ-модель Sketch2Sound. С её помощью пользователи смогут создавать профессиональные звуковые эффекты на основе текстового описания и любительской голосовой подсказки. В ходе работы нейросеть анализирует три ключевых элемента голосового ввода: громкость, тембр и высоту тона. Затем ИИ-алгоритм объединяет эти характеристики с текстовым описанием для создания необходимого звука. Примеры можно увидеть в ролике выше или на сайте разработчика — как говорится, лучше один раз услышать. Особая технология фильтрации обеспечивает точность управления создаваемыми звуками. Пользователи могут выбрать между детализированным управлением или более расслабленным подходом. Новая ИИ-модель, как отмечается, может быть полезна при создании звуковых эффектов в фильмах. Вместо того чтобы использовать физические объекты, специалисты смогут положиться на возможности Sketch2Sound. Пока неизвестно, когда нейросеть Sketch2S
Новый ИИ от Adobe превращает бормотание в профессиональный звук [ВИДЕО]
23 декабря 202423 дек 2024
6
~1 мин