Найти тему
1,2K подписчиков

Нейросеть научили превращать картины в музыку

Исследователи из Амстердамского университета представили нейросеть, способную соотносить визуальные ощущения со звуками — и превращать картины в музыку. Работа опубликована в статье на arXiv.org.

Винсент ван Гог / «Желтый дом» / Музей ван Гога, Амстердам
Винсент ван Гог / «Желтый дом» / Музей ван Гога, Амстердам

Максимилиан Мюллер-Эберштайн (Maximilian Müller-Eberstein) и Нанне ван Ноорд (Nanne van Noord) из Амстердамского университета разработали алгоритм, способный проводить преобразование между изображениями и музыкой, причем при обучении он не требует соотносить изображения с музыкой, а учится этому самостоятельно, применяя метод обучения без учителя.

Алгоритм построен на архитектуре автокодировщика. Такой алгоритм производит преобразование из исходных данных в скрытое представление, которое несет в себе основную информацию об исходных данных и позволяет восстановить их в достаточно похожем виде. Автокодировщики состоят из кодировщика и декодировщика. Особенность таких алгоритмов заключается в том, что, как правило, кодировщик и декодировщик работают с разными данными.

Схема работы алгоритма. Maximilian Müller-Eberstein, Nanne van Noord / arXiv.org, 2019
Схема работы алгоритма. Maximilian Müller-Eberstein, Nanne van Noord / arXiv.org, 2019

Для того, чтобы использовать метод обучения без учителя, авторы применили двунаправленный автокодировщик. После того, как он провел преобразование из изображения в музыку, он производит обратное преобразование из полученной музыки в новое изображение, после чего оно сравнивается с исходным. Это позволяет применять функцию потерь и в ходе обучения снижать разницу между двумя изображениями, тем самым повышая точность работы автокодировщика. Так, кодировщик учился на датасете MNIST, в котором содержится 60 тыс. рукописных символов и на датасете Behance Artistic Media, в который входят около 180 тыс. картин маслом и акварелью.

После обучения авторы проверили точность работы алгоритма количественно, с помощью нескольких метрик, в том числе расстояния Кульбака — Лейблера, а также качественно. Для второй оценки они попросили добровольцев описать свои эмоции при просмотре изображений из датасета с картинами. Эксперимент показал, что после обратного автокодирования эмоции совпадали с эмоциями при оценке исходного изображения со средней точностью 71 процент.

Оценить работу алгоритма можно самостоятельно на сайте авторов.