Решил проверить, а правда ли флагман nVidia настолько хорош? Сегодня я хочу сравнить RTX 3080 ti, у который 12 гигабайт видеопамяти, с флагманской RTX 3090, у которой уже 24 гигабайта.
Приветствую. Сегодня мастодонт в лице RTX 3090 будет "отвечать за базар". Для начала сравним его спецификацию с RTX 3080 ti, затронем немаловажный математический блок и, соответственно, проведём тестирование в играх.
В этом году я собрал себе компьютер, конечно же, по частям, и что-то дополнялось, а что-то уходил. По итогу, получился сочный ПК, да ещё меньше, чем за 40 000 рублей. Вскоре планирую выпустить ролик со сборкой своего компьютера, а пока переходи на канал, глянь другие ролики с обзорами этих самых комплектующих.
Так как упор мы делаем именно на 3090, то для контраста сначала взглянем на 3080ti.
MSI Geforce RTX 3080ti.
- Частота графического процессора: 1770 Mhz;
- Частота памяти: 19000 Mhz;
- Объём видеопамяти: 12 Гб;
- Шина памяти: 384 Бит.
Основные технические характеристики запомнили. Здесь 12 гигабайт видеопамяти с эффективной частотой 19000 Mhz на шине 384 бит.
Один из важнейших показателей мощности видеокарт - это математический блок. Опять же, для контраста вставлю и его.
- Число универсальных процессоров (Cuda): 10240
- Количество RT ядер: 80
- Количество тензорных ядер: 320
- Число текстурных блоков: 320
- Число блоков растеризации: 112
Углубляться в дебри схемотехники мы не будем, при изучении этого блока можно опираться на правило "больше-лучше".
MSI Geforce RTX 3090.
- Частота графического процессора: 1860 Mhz;
- Частота памяти: 19500 Mhz;
- Объём видеопамяти: 24 Гб;
- Шина памяти: 384 Бит.
На этом этапе остановимся поподробнее. Я выскажу сугубо своё мнение по поводу этой видеокарты и ещё нескольких RTX 3000 серии.
Я считаю, что 24 гигабайта видеопамяти - это слишком много, даже при условии 2К/4К гейминга. Это больше похоже на маркетинговый ход, нежели чем на революционное техническое решение, мол: "Посмотрите, сколько у меня видеопамяти, изи киберпанк в 8К", а на деле, даже не самый молодой RDR2 в 4K на ультрах, не дотягивает до отметки в 60 FPS.
Я уверен, многие попытаются оспорить моё мнение, аргументируя это тем, что 4K разрешение съедает много памяти, буфер заполняется, а значит схема работает, но как бы не так.
nVidia - скользкие типы, умело играющие на чувствах не шибко разбирающихся людей. Эту систему с большим объёмом памяти можно сравнить со старыми многоядерными процессорами, по типу старых Xeon, у которых, вроде бы, 10 ядер, но буст у них до 2.1 Ghz, и любой новый 4- ядерник без труда обгонит его по производительности, как в играх, так и в рабочих задачах.
Теперь же, предлагаю взглянуть на математический блок.
- Число универсальных процессоров: 10496
- Количество RT ядер: 82
- Количество тензорных ядер: 328
- Число текстурных блоков: 328
- Число блоков растеризации: 96
Всего понемногу больше, кроме растеризации.
Для подтверждения, прошу обратить ваше внимание на тесты в играх.
Все тесты на Ultra настройках в 4K разрешении.
Cyberpunk 2077.
Hitman 3.
FarCry 6.
Отмечу, что RTX 3080 версии OC, RTX 3090 - только собственный турбобуст частот, но даже при условии, что они будут находиться в абсолютно одинаковых условиях, у меня наклёвывается вопрос. Где 24 гига? Почему 12 гигабайт работают так же или лучше? При том, что загрузка у них практически одинаковая.
Причём не один я подметил эту особенность. Можно сказать, что RTX 3090 имеет ватные 24 гига, которые, как бы, есть, но за базар не отвечают. Зачем они здесь? Непонятно.
Если капнуть глубже, то можно прийти к выводу, что RTX 3090 хитро урезана разработчиками, и при соблюдении баланса своей спецификации и математического блока, карта могла бы рвать всё, что движется, соответственно, что не движется, - она бы двигала и рвала. Аналогию вы поняли.
Как итог, RTX 3080ti - топ, и стоит гораздо дешевле.
Если согласны со мной, то ставьте палец вверх, напишите свою точку зрения и подписывайтесь на канал. Всего доброго.