Теперь VUP поддерживает Kinect tracking. Иными словами, если у вас есть вот такая камера ↓, теперь вы можете передавать движение всех частей тела, которые будут отображаться на вашей модели.
Разработчики разместили подробную инструкцию здесь 💌 Захватите гугл-переводчик!
Jenny любезно протестировал данную функцию и вот, что написал:
В общем, есть кинект 1.0 и 2.0.
VUP не работает с 1 кинектом, а у меня как раз он.
Я пробовал через официальный SDK (пакет с драйверами и библиотеками для работы с этим) и через Nuitracker (софт, который помогает работать с камерами захвата движений, включая обе версии кинекта).
Что SDK, что Nuitracker - официально поддерживаются внутри VUP.
В случае с Nuitracker-ом ещё и вылетает с ошибкой, а в SDK просто пишет, что не находит его, оно и понятно, ведь у меня SDK для кинекта 1.0, а не 2.0.
Подытоживая: Исходя из этого опыта VUP скорее всего работает только с кинектом 2.0.
По мимо этого теперь отслеживание лица с iPhone поддерживает настройку параметров выражения лица.
Для отслеживания лиц iPhone ARKit вы можете настроить значение усиления и значение сглаживания для всех каналов выражения. Для этого зайдите в: Broadcast -> Face Capture -> Опустите поле выбора справа от [Face capture channel adjustment], выберите [Advanced setting] -> [IOS Advanced setting]. Я бы сделала вам инструкцию, но времени нет, извините.
Sensei регулярно публикует новости и гайды из мира VTubing'a. Подпишитесь, что бы быть в курсе ( •̀ ω •́ )✧
#Втубер #Витубер #Vtuber #Vtubing #Втубинг #Vup