116 подписчиков
На днях принял участие в беседе о повышении вычислительных попугаев, в которой опять всё хотели свести к тому, что давайте считать на GPU, они же еге-гей и ого-го!
И я вот что вспомнил: такая малоизвестная студия по рисованию мультиков как Pixar, неоднократно заявляла что при рендере не использует GPU, а считает всё на CPU. Шок, скандалы, интриги, расследования!!!
Так вот, мой маленький друг, любящий везде посчитать на GPU, запомни простую истину: GPU заточены на быстрое всасывание инфы и её обработку, но не отдачу. И как только доходит до того, что надо забрать с него что-то обратно, это боль, тормоза и унижение.
А что же с пиксарами? Они же видосики считают, это же самое оно. Как бы да, но есть нюанс: размер сцены для просчёта каждого кадра это, ну пусть будет, сотня гигабайт. То есть, чтобы получить все прелести рендера на GPU, нам нужна карточка с таким объёмом оперативки, чтобы туда влезла вся сцена разом, а не кусками. И тут уже начинает ролять его стоимость.
К сожалению, особо много инфы на эту тему в сети нет, но можно ознакомиться с видосом от Intel про железо на котором они рендерят свои мульты. За четыре года многое могло измениться, но крайняя специфичность железа точно осталась.
А для любителей помучать своё железо странным, у диснея есть расшаренная сцена одного кадра из Моаны, весящая 90 гигабайт. Дело было 8 лет назад.
1 минута
28 июня 2024