Теперь голоса в голове приобрели новый смысл. Ученые из Google и Университета Осаки в Японии смогли воссоздать музыку на основе мозговой активности человека. Модель получила название Brain2Music . Эксперимент начался с того, что группа испытуемых прослушала образцы музыки различных жанров (рок, классика, металл, хип-хоп, поп, джаз и другие). Во время прослушивания учёные с помощью функциональной магнитно-резонансной томографии (фМРТ) записывали активность мозга слушателей. Полученные данные затем были использованы для обучения нейросети определять активности, связанные с различными характеристиками музыки, такими как жанр, настроение и инструментарий. Ключевой этап исследования включал использование модели MusicLM от Google, которая генерирует музыку на основе текстовых описаний. После соединения базы данных MusicLM с данными фМРТ, ученые смогли разработать ИИ-модель, которая воссоздавала прослушанную испытуемыми музыку. Вместо текстовых инструкций для MusicLM активность мозга обеспечи
Нейросеть Brain2Music превращает ваш мозг в портативную колонку
28 июля 202328 июл 2023
13
1 мин