515 подписчиков
Время идёт, а возможность создания видео в "Шедевруме" по-прежнему открыта только для избранных, в число которых я по-прежнему не вхожу.
Ну и ладно. Как говорится, вода дырочку найдёт. В моём случае дырочка приехала в почтовой рассылке от Civitai в виде новости о том, что компания Stability AI, разработчик StableDiffusion, занялась бета-тестированием модели AnimateDiff — как раз для создания видео. Потестить модель можно много где, но самый понятный и удобный для не-программистов интерфейс нарисовали на платформе HuggingFace (это такое место, где давно уже тестируются самые разные нейросети).
Пока что всё работает очень, ОЧЕНЬ долго и медленно: на одну генерацию может уйти от одной до десяти минут, всё зависит от того, насколько длинна очередь желающих. (Подсказка: очередь зависит от времени суток. В утренние часы по московскому времени ждать приходится совсем недолго, поздно вечером — можете успеть заварить и выпить чашку чаю.) На выходе же получается всего лишь двухсекундная анимация. Зато никакой дискриминации: попробовать могут все желающие. И да, платформа англоязычная.
Не перестаю повторять, что в мире нейросетей всё развивается очень быстро, просто стремительно. StableDiffusion появилась всего-то год назад, а сегодня существуют уже десятки дочерних моделей на её основе, которые выдают изображения невероятного уровня реалистичности. Так что логично предположить, что и AnimateDiff ждёт стремительный взлёт и блестящее (ближайшее) будущее, в котором будут и ролики подлиннее, и картинка поубедительнее. А пока оставлю здесь компиляцию из первых шагов новой нейросети AnimateDiff.
1 минута
21 сентября 2023