Unity Render Streaming Что-то на неделе я задался идеей сделать свой AR стриминг. Идея его довольно проста в своей сути: 1) Отправляем с устройства позицию камеры в сцене (+ записываем в память кадр видео с таймштампом, и позицию отправляем с ним же) 2) Рендерим Unity сцену исходя из полученной позиции камеры 3) Возвращаем фрейм из Unity с альфа каналом + таймштамп 4) Склеиваем 2 кадра (из юнити и видео) 5) Отправляем результат в очередь на вывод Дальше регулируя задержку вывода в зависимости от сети и широты канала можно получить неплохой эффект. Но так как, я люблю стандарты, то писать свой протокол стриминга мне не особо хочется. Поэтому я решил поискать "а что есть готового?" И наткнулся на очень интересный пакет. Из коробки конечно он не совсем нужный функционал покрывает, но делает скажем так 80% работы. Это https://docs.unity3d.com/Packages/com.unity.renderstreaming@3.1/manual/ Сделано там всё на основе WebRTC, у него есть ряд довольно странных багов (скину скрины ниже) Но в цел