Человечество двигалось в сторону понижения порога входа в музыку долгое время. Сегодня мы ускорились.
Условно до середины 19-ого века для того, чтобы насладиться музыкой, требовалось непосредственное присутствие слушателя в зале с музыкантами. Творцам было необходимо долго и упорно оттачивать мастерство.
А потом как понеслось...
В 20 веке звукозапись все перевернула, но скиллы еще требовались. Сессионные музыканты никуда не делись. Чтобы записать что-то, требовалось сыграть и спеть это самое. Оборудование стоило дорого. Студии были не для всех. Индустрия начала обрастать всевозможной техникой и специалистами.
Затем в ~ 1980-х с двух ног в дело врывается цифровая звукозапись, опоры, держащие порог входа, крепко пошатнулись. Падение требований, предъявляемых для музыканта, начало особенно укоряться.
Тогда же появляются первые Digital Audio Workstations (DAWs) – цифровые рабочие звуковые станции. С ними автор уже знаком, сам чего-то крутил. И вот здесь уже наступает точка невозврата. Музон стало можно писать, не умея играть вообще ни на чем, не зная никаких основ. Буквально любой мог сесть, скачать сэмпл пак “The best juicy hyperloops DnB” и вперед. Вертеть диджитал нобы всяких там multiband compressor-ов.
К концу 2010-х выросло такое количество различных библиотек, плагинов, эмуляторов всевозможных эквалайзеров, дисторшенов, лапм, синтезаторов и прочего (не перечислить). Синтезаторы – отдельная тема. Появились такие синты, на которых можно было от и до весь трек записать. Автор качал терабайты библиотек для Kontakt-a, которые были нужны для воспроизведения звуков всяких аналоговых инструментов.
Появились продвинутые инструменты для обработки, сведения и мастеринга.
Саунд-дизайн и его упаковка в микс сделала мощнейший рывок прямо на моих глазах. Каждый месяц вылезало что-то новое и прорывное.
Конечно же, в основном, у большинства получался мусор, но число участников, хлынувших в индустрию, поражало. Чтобы творить, хотя бы на минимальном уровне, был необходим ПК и дешманский мониторинг. Дорогие студии и профессиональные аранжировщики, звукорежиссеры и прочие трушные спецы, так или иначе, закрывали с головой всех дилетантов своими умениями, но уже почувствовали нелегкую поступь конкуренции, шедшей за ними.
И вот сейчас пришел достаточно прокаченный ИИ, который сильно потеснит средний (Важно: именно средний, крутаны-трушные-продюссеры-звукари могут вообще не переживать) сегмент саунд-дизайнеров, звукорежиссеров, аранжировщиков и остальных музыкантов. Я попробовал и современный функционал меня сильно удивил. Солидно для нейрогена.
Барьер, мешавший обывателям проникать в музыку, стерт до основания. Планочка пробивает дно, теперь можно жать «КНОПКА СДЕЛАЙ ПО КАЙФУ» - и модель что-то сделает. Что-то и как-то.
В чем произошли изменения?
Лет 8 назад я помню, как часами крутил рукоятки какого-то цифрового EQ от Fabfilter, или пытался свести и смастерить треки с помощью инструментов IZotope. И это была крайне непростая задача.
В чем тут дело, на практике сделать так, чтобы ваша готовая запись звучала хорошо на любом устройстве, (хоть пусть это будет динамик вашего телефона или колонки за пару тысяч рублей, или аудиосистема в автомобиле, или мониторинг за несколько миллионов) – это челлендж. И еще какой. Для этого требовалось серьезное умение, нарабатываемое годами упорного труда и обучения. Неплохим бонусом в копилочку была качественная студия со всеми соответствующими требованиями. Куда же без нее?
Для того, чтобы склеить просто среднестатистический (не платиновый) удовлетворительный микс, скажем, в поп-музыке – нужно было потратить время, следовательно и деньги. И довольно много. C этой целью нанимались люди, умеющие в запись, аранжировку и сведение.
Люди много чего записывают, в чартах мы слышим лишь пренебрежимо малую часть того, что было сделано.
Даже без ИИ человечество генерило тонны музла, хоть этот процесс чего-то там требовал. По крайней мере, надо было руками тыкать в те ноты, которые синт или другой инструмент по задумке «музыканта» должны были отыграть.
А теперь, ты пишешь, что тебе хочется получить, какое звучание, его окрас, стиль, ширину, громкость и прочее. И получаешь. Далеко не в точности то, что хотел, но блин… Лучше, чем предполагал.
Автор заценил то, как SUNO миксует различную музыкальную электронщину (типа Neurofunk, DnB, EDM, house и прочие…)
Получается так, а я проверял на своих друзьях, что люди отличить нейроген от ненейрогена не могут. Справляются те, кто плотно занимался музыкой. Или те, кто много слушал разной музыки. Обыватель все. Не вывозит.
{Важное уточнение. Сложно отличить именно электронную музыку, так как с ней нейросеть уже научилась справляться. Электронщина пилит электронщину. Ничего удивительного. С другими жанрами все еще есть проблемы.}
Простой тип генерации.
Пишем промпт, в котором расписана структура трека, стили и особенности требуемого звучания. Пишем текст, можем его своровать. А также загружаем отрывок из трека (или весь трек целиком), сделанного человеком для референса.
Далее нажатие кнопки “Create”, 2 минуты и готово. За день можно нанейронить сотни таких «произведений».
Коитус вместе с DAW, студиями, ранее занимал куда больше времени и сил. На готовую запись уходили недели (в лучшем случае) или даже месяцы (всякое бывало). Это все еще было быстро по сравнению с пленкой или пластинками, но что мы вообще знали о скорости?
Теперь-то нам покажут настоящую скорость загаживания интернетов.
С чем не справляется нейронка?
Вопрос именно так и ставится. С большей частью задач она уже справляется лучше большинства криэйторов. От этого и смешно и грустно.
На днях я откопал один видос, где продюсер трека исправляет то, что нагенерила ему нейросеть. Видео называется «Переработка D&B трека из нейросети Suno». Чел в ролике редактирует нейро-драмчик.
Не могу не вставить здесь комментарий дорбого зрителя. Зацените.
В Суно трек круче.
Человек, для кого-то уже не вывозит. В конце комментария в скобках указана модель наушников слушателя-зрителя. Норм уши, так-то. Вслушивался видать.
Кто-то может парировать, что нейросети не справляются идеально. Да. Модели слишком много генерят и не могут остановиться тогда, когда им следовало бы. Слушая нейроген я постоянно хочу что-то исправить:
Во, тут бы еще раз повторить этот луп - а ИИ нагенерил уже следующий фрагмент трека, хотя по логике надо было сыграть предыдущий, немного добавив автоматизации параметров, слегка изменив баланс инструментов или чуть-чуть переписать ноты. Но такие вещи варьируются параметрами генерации. Иногда (всегда) вылезают мелкие (и не мелкие) фак-апы при сведении, или как это можно вообще назвать - неуместный слоп. Референс сильно помогает нейронке понять, что ей нужно генерить. Порой в нейрогене попадаются поистине жесточайше удачные фрагменты. Тем не менее, профики и гики спалят, так как присутсвуют характерные искажения и артефакты в звуке. А также дичайшая нелогичность в мелодиях, гармонии и аранжировке. От которой у меня сильно горело.
Но, для удовлетворения запроса на стандартную и вторичную музыку, инструмент годится на все сто.
Более того в платной версии уже есть студия, в которой можно редактировать полученный трек по частям, прямо как в DAW. И вот здесь зарыта вся соль.
Режим студии SUNO.
Дамы и господа, а вот это уже ИМБА. Вот реально, теперь подавляющее большинство низкокачественных библиотек и сэмпл паков уйдет в небытие. То, что можно вытворять в этой штуке поражает воображение.
Ранее обзавестись треками качественного вокала (а капелла) было очень непросто и крайне недёшево. Теперь – эта штуковина может выдать столько всего, что устанешь кнопку нажимать. И, в общем и целом, вокальные партии будет непросто отличить от исполнения живого человека.
Теперь в Suno-студии можно будет обрезать лишнее, склеить самые удачные фрагменты, отредактировать. При желании вставить полученные партии в свой DAW, немного обработать, так как основная сложность – это получить нормальные исходники, и теперь они уже есть. Их сгенерила модель. Микс сочетающихся с друг другом фрагментов – задача не самая тяжелая.
На выходе такой обработанный материал уже не отличит никто.
Зачем вообще заниматься музыкой, когда есть ИИ?
Этот вопрос сегодня задает множество музыкантов. Они здесь не в одиночестве. ИИ прошелся по всем творческим профессиям. Вот видео, где блогер-музыкант Зилков высказывает свое мнение по этому поводу. Или вот недавнее видео Джона.
Я с ними согласен. Заниматься чем-то надо только тогда, когда оно вам приносит радость и удовольствие. В таком случае не будет вопросов:
Зачем мне испытывать радость и удовольствие от того, что я делаю?
Талантливых и выдающихся создателей чего-то ни было, ИИ не заменит, скорее их труд станет еще более дорогим. Хотя, кто знает… А вот средних ремесленников, тех кто алгоритмизировано делал свою работу, пожалуй, заменит изи.
По моему, нейросети не годятся для творческих задач. Они лажают там, где важны образность и художественность. Среднестатистическое (иногда и чуть выше) качество выдать могут. За душу взять не получается.
В правильную ли сторону мы все едем? Мое мнение будет, скорее всего, не очень популярно. Я считаю, что в неправильную. Нас завалит нейрослопом. Будем серфить в мертвом интернете, очишеном от человеческого присутствия. Боты, генерящие контент, отвечающие на комменты ботов, комментирующих сгенеренный контент. Круговое нанейронивание.
Генерить музыку оказалось прикольно, но странное занятие и глупое. Поначалу очень весело, но в какой-то момент устанешь от одинаковости и абсолютной хтони, накатывающей из глубинных глубин. В этом процессе нет соучастия, ты просто жмешь «КНОПКА», переслушивая тонны нейрохрючева.
Все же, это не творчество. Это эрзац-творчество. Каким бы технологичным ИИ не был.
Можно ли это остановить?
Нет, никак.
Как верно отметил уже упомянутый Александр Зилков:
Давным-давно никому не нужна твоя музыка, никому не нужна ничья музыка. Процесс обесценивания творчества идет давно, просто сейчас он ускорился.
В большинстве своем – все так и есть.
Мы двигаемся туда, где найти человеческое творчество будет непросто, но всегда будут те, кто заморочится. Не знаю, как ИИ будет встроен в концерты, может быть, роботы будут петь и плясать на сцене.
Автор такие концерты посещать точно не станет.
Несколько месяцев назад я был в театре. В постановке использовались нейроген-видосы, которые проецировались на экраны, находящиеся за актерами. Я подумал, что театр – последнее место, где такое следует использовать. Ага, сейчас еще я в театр за нейрохрючевом не ходил… Ощущения были крайне негативные. Постановка называлась «Камень». Сердечно не рекомендую. В театре люди обычно желают видеть живое, пусть дороже, пусть даже хуже, чем получится у модели, но именно за живое там зритель платит деньги. Все творцы, задействованные в схожих областях, уличенные в нанейронивании, рискуют потерять часть публики.
Следовательно, кое-какие островки надежды могут все это пережить, при чем даже извлечь бонусы из этой ситуации.
С уважением,
П.С. Решил, что нужно оставить ссылку на музыку, сделанную человеком:
[https://www.youtube.com/watch?v=IZBlqcbpmxY] - Jimi Hendrix - Voodoo Child
Нейрослоп, сгенеренный автором.
Ссылка на нанейронивание 1 (бесплатная v4.5) [Драм & Бейс Нейротрек]
Ссылка на нанейронивание 2 (платная v5.0 pro) [Вот]