4,9K подписчиков

Как искусственный интеллект изменит аудиоиндустрию: любой сетап по запросу без СМС и регистрации

Рассуждать о том, насколько важным становится искусственный интеллект для современной AV-индустрии и IT бессмысленно. О “нейронках” знают уже все, включая детей и домохозяек.

Рассуждать о том, насколько важным становится искусственный интеллект для современной AV-индустрии и IT бессмысленно. О “нейронках” знают уже все, включая детей и домохозяек. Очевидно, что через два-три года ИИ-системы и различные программы на их основе будут использоваться повсюду: в фотографии, видео, музыке, играх, образовании, офисе и так далее. Это уже происходит, но мы еще не привыкли к искусственному интеллекту, поэтому воспринимаем многие ИИ-творения скептически. Некоторые, вообще, против такого, но деваться некуда — это не временное явление, нужно привыкать.

Рассуждать о том, насколько важным становится искусственный интеллект для современной AV-индустрии и IT бессмысленно. О “нейронках” знают уже все, включая детей и домохозяек.-2

Вообще, отношение к нейронным сетям и различным ИИ-продуктам меняется стремительно: еще вчера нас пугали различные дипфейки и другие творения искусственных умов, а сегодня многие на постоянной основе используют нейронные сети в работе. Что уж говорить… Есть креаклы, которые уже не мыслят свою работу без ChatGPT, Midjourney или какого-нибудь умного модуля вроде Adobe Firefly для Photoshop.

Короче говоря, ИИ среди нас. И это нужно принимать, иметь в виду и привыкать.

Новая веха в истории аудио

Рассуждать о том, насколько важным становится искусственный интеллект для современной AV-индустрии и IT бессмысленно. О “нейронках” знают уже все, включая детей и домохозяек.-3

Бессмысленно порассуждав о важности искусственного интеллекта в наши дни, переходим к основному вопросу статьи. А вопрос вот в чем. Станет ли ИИ новой вехой в истории аудио? Кажется, да.

Прежде всего, нужно понимать, что умные технологии уже изменили аудиоиндустрию. К примеру, системы акустической коррекции вроде Dirac, которые оптимизируют звучание сетапа в соответствии с предпочтениями слушателя и окружающей обстановкой, поменяли наши представления о корректной “подгонке” музыкальной системы под помещение. Теперь технологии позволяют добиться оптимального звучания от условно любых колонок в любой комнате. Процессор сам разберется, как нужно обработать сигнал, чтобы из динамиков шел “правильный” звук.

То ли еще будет. Это цветочки. Производители уже вовсю используют смарт-технологии для подгонки звука под конкретное ухо конкретного человека. Уже сто лет всем нам известная компания Creative, например, предлагает для точной настройки звучания наушников делать фото ушей. В буквальном смысле, нужно снять на смартфон свое ухо, а приложение само проанализирует и подстроит наушники. Чудеса.

Но вышесказанное — уже не новость. Такие технологии могли удивлять нас раньше, но в 2023 году это все стало восприниматься проще и “по-обычному”. Однако, ходят слухи, что индустрия в скором будущем удивит нас по-настоящему. И главным трендом могут стать аудиокомпоненты на основе эмуляторов.

Эмуляция

Речь о том, что в аппаратуре начнут применять технологии, позволяющие эмулировать звучание того или иного компонента вне зависимости от используемых колонок/усилителей/источников. Другими словами, специальные процессоры будут моделировать звучание по требованиям пользователя. И если такие штуковины снабдят подключением к Интернету с постоянными обновлениями и использованием мощностей нейронных сетей, то возможности могут оказаться безграничными.

Рассуждать о том, насколько важным становится искусственный интеллект для современной AV-индустрии и IT бессмысленно. О “нейронках” знают уже все, включая детей и домохозяек.-4

Представьте, что у вас есть какой-нибудь “средний” усилитель и какие-нибудь “средние” колонки. Звучание приелось и хочется чего-то нового. Берете в руки смартфон, сопряженный с аудиопроцессором, и выбираете нужное звучание по ключевым словам словно в ChatGPT: “хочу ламповый винтажный звук а-ля Abbey Road”…

А может лучше сэмулировать звучание моноблоков Mark Levinson? Или попробовать послушать новый альбом Metallica через виртуальные кабели разных производителей? Глупости? А вот и нет! Если кто-то всерьез слышит, как меняется звук в зависимости от разных проводов, то ИИ вполне может научиться моделировать эти кабели, а точнее их влияние на звук. Представьте, насколько масштабными могут быть изменения в AV-индустрии, если все так и будет.

Суть в том, что аудиопроцессоры смогут не просто обрабатывать звучание — они будут его создавать. Подобное уже много лет существует в моделирующих гитарных усилителях: музыкант просто выбирает кнопками нужное звучание, основанное на том или ином аппарате (Marshall, Mesa/Boogie, Vox и т.д.), а процессор подстраивает звук.

Рассуждать о том, насколько важным становится искусственный интеллект для современной AV-индустрии и IT бессмысленно. О “нейронках” знают уже все, включая детей и домохозяек.-5

Новые модели таких моделирующих усилителей звучат поразительно хорошо. По крайней мере, производители научили цифровые комбики играть максимально по-ламповому. Это факт.

А если представить, что хайфайные и хайэндные фирмы начнут массово использовать аналогичные решения, но с применением ИИ, то становится жутко интересно. Даешь ламповый аудиофильский сетап с винилом в каждую спальню! И все это будет идти из маленькой умной коробочки.

Рассуждать о том, насколько важным становится искусственный интеллект для современной AV-индустрии и IT бессмысленно. О “нейронках” знают уже все, включая детей и домохозяек.-6

Одно огорчает. Индустрия не пойдет сама против себя: вряд ли какой-то именитый производитель захочет, чтобы ИИ беспрепятственно использовал его дорогущие модели для эмуляции. Другими словами, возникнут вопросы лицензий, прав и цен на все эти удовольствия. Но это уже другая история.