Что выбрать — Nvidia или AMDОт какой компании купить карту — Gigabyte, Asus или MSIНужна игровая видеокарта. Карта с 4 гигабайтами памяти подойдет?Стоит ли выбирать карты с шиной в 256 бит вместо 128 бит Стоит ли менять материнскую плату, если на ней PCI-e 3.0, а у карты PCI-e 4.0А что тогда с PCI-e 5.0?Трассировка лучей: важна или нет?А что это за DLSS, которая фпс повышает? Альтернатива DLSSСтоит ли выбирать видеокарту под процессорТак на что тогда нужно обращать внимание при выборе видеокарты?Критерии и варианты выбораСодержание
Игровой потенциал компьютера определяется в первую очередь установленной в него видеокартой. А следовательно — к ее выбору нужно подходить не менее ответственно, чем к покупке центрального процессора или материнской платы.
В этом гайде мы в очередной раз постараемся рассказать о том, на что действительно стоит обратить внимание при выборе видеокарты, а какие распространенные убеждения на деле являются бесполезными и даже вредными мифами. Что выбрать — Nvidia или AMD
Nvidia и AMD — это не видеокарты. Это, внезапно, — названия компаний.
Если же вы выбираете видеокарту — то выбирать нужно конкретный продукт за конкретную цену. Ориентироваться следует на его реальные характеристики: стоимость, количество FPS в играх, возможности разгона и получаемый от него прирост производительности.
Для наглядности — рассмотрим конкретный пример: Radeon RX 5500 XT в версии с 4 гигабайтами набортной памяти стоит столько же, сколько GeForce GTX 1650 Super. Их энергопотребление одинаково, производительность — тоже.
Очевидно, что в данном случае можно выбирать и ту, и другую карту. И, что бы вы ни предпочли, вы абсолютно ничего не потеряете.
А вот — Radeon RX 5500 XT в версии c 8 гигабайтами, который стоит столько же, сколько и GeForce GTX 1660: При одинаковой цене карта от AMD оказывается уже немного медленнее. Да, разницу трудно назвать существенной, и уж абсолютно точно она не позволит играть с более высокими настройками или в большем разрешении.
Но какой смысл отдавать те же деньги за продукт, который, пусть и очень условно, но слабее? Вот если разница в цене составит 2–3 тысячи рублей, которые можно «вложить» в другие комплектующие — тогда другое дело.
Оперирование мифическими параметрами вроде «репутации бренда», «стабильности софта» или «особо яркой, сочной картинки» в итоге приведет вас к покупке видеокарты, которая либо не будет справляться с вашими задачами, либо покажет себя хуже, чем решение от конкурентов.
От какой компании купить карту — Gigabyte, Asus или MSI
У каждого вендора есть несколько линеек продуктов, нацеленных на бюджетный, средний и высший ценовые сегменты. Причем касается это в том числе и карт, основанных на одном и том же графическом чипе.
Есть карты, отличающиеся от референсного дизайна только наклейкой и комплектом поставки, есть продукты, ориентированные на упрощение и удешевление оригинальной конструкции, но есть и глубоко переработанные устройства, рассчитанные на энтузиастов и оверклокеров.Соответственно, видеокарты каждого из трех типов будут отличаться разными характеристиками. К примеру, условная видеокарта Inno3D из линейки iChill, с массивным кулером, разработанным компанией Arctic по спецзаказу, всегда будет холоднее, тише и возьмет бо́льшие частоты, нежели условная видеокарта Asus TURBO, использующая для охлаждения референсную турбину. И никакая «репутация бренда» этого никогда не изменит.
Впрочем, не думайте, что это не работает в обратном направлении: видеокарта Asus ROG STRIX всегда будет тише, холоднее и более приспособлена к разгону, чем, к примеру, Palit StormX на том же графическом чипе. А Palit Jetstream или Super Jetstream, в свою очередь, могут ничем не уступать Asus ROG STRIX, но побеждать их ценой…
Нужна игровая видеокарта. Карта с 4 гигабайтами памяти подойдет?
Вопрос можно переиначить следующим образом: «Я хочу купить машину, разгоняющуюся до 100 км/ч за 7 секунд. Хватит для этого машины с багажником объемом в 520 литров?». Что, согласитесь, полный абсурд — объем багажника очевидно не является фактором, влияющим на динамику разгона автомобиля.
Одно из распространенных заблуждений, касающихся видеокарт — то, что их производительность напрямую зависит от объема установленной памяти.
Отчасти это верно, но лишь отчасти. Память, установленная на видеокарте — это и есть своего рода «багажник», в котором хранится весь объем данных, генерируемых и используемых графическим процессором: игровые текстуры, геометрические вершины и буферы. Если этого объема достаточно для конкретной игры — отлично, все будет работать в штатном режиме.
Если же объем памяти мал — могут возникнуть проблемы. На современных платформах под нужды графики начнет выделяться часть оперативной памяти — однако DRR4 медленнее GDDR5 и уж тем более GDDR6, и переход к ее ресурсам может привести к временному падению производительности, что не очень комфортно.
Опять же, конкретный пример:
Horizon Zero Dawn, разрешение экрана — FullHD, настройки графики — высокие:
Как можно видеть, Radeon RX 5500 XT в версии с 8 гигабайтами на борту использует собственную память, в то время как RX 5500 XT 4gb и GTX 1650 Super вынуждены использовать часть оперативки.
К чему это приводит можно заметить по счетчику FPS, и в особенности — по показателю 1% событий. Обе карты с 4 гигабайтами памяти на борту резко проседают, что делает игровой процесс далеким от понятия комфорта. С другой стороны, в этом примере речь идет об одном разрешении экрана и одном наборе настроек, при котором ни одна из трех карт не обеспечивает постоянных и стабильных 60 кадров в секунду по показателю среднего FPS. Следовательно, настройки так или иначе придется снижать.
А что будет на средних и низких настройках графики в той же сцене?
Как можно видеть, со снижением настроек графики потребление видеопамяти снижается. А следовательно — даже в этой требовательной игре можно найти компромиссные параметры.
Так сколько же в итоге должно быть набортной памяти? Ее не должно быть много или мало: памяти должно быть достаточно для игры на тех настройках, на которых графический процессор способен выдавать комфортный уровень FPS.
Рассмотрим это на конкретном примере: сцена из встроенного бенчмарка игры Assassin’s Creed: Valhalla, запущенного на Radeon RX 6500 XT с 4 гигабайтами памяти на борту:
В примере слева используется штатный профиль «Высокие настройки». Хотя показатель среднего фпс держится на отметке в 34 кадра, постоянные просадки по 1% и 0,1% редких событий и нестабильный график времени кадра делают игровой процесс на этих настройках графики попросту невозможным. И дело не только в нехватке объема памяти, но и в том, что видеокарта начального уровня не рассчитана на игру на этих настройках графики.
Справа — та же игра и та же видеокарта, однако настройки графики понижены до средних. В этом случае потребление видеопамяти ниже буквально на один гигабайт, но кроме этого существенно снижается и нагрузка на ГПУ. 37 и 49 кадров по редким событиям, 54 и 63 кадра — по показателям минимального и среднего фпс. И абсолютно комфортный геймплей.
Объем памяти — важная характеристика видеокарты, но его нельзя рассматривать в отрыве от производительности ГПУ, игр и настроек графики, которые предполагается получить.
И уж совершенно точно не стоит думать, будто GeForce GT 730 и GeForce GTX 1650 Super при одинаковом объеме памяти в 4 гигабайта позволят выставить одинаковые настройки и получить одинаковую производительность.
Так сколько видеопамяти вообще нужно?
Если мы говорим о современных игровых видеокартах, которые РЕАЛЬНО способны тянуть игровые новинки на высоких и максимальных настройках как минимум в FullHD — 6 или 8 гигабайт памяти на борту будут обязательны. А для QuadHD и 4К — это и вовсе необходимый минимум, если не понижать настройки до средних. Но если вы не гонитесь за максимальными настройками, или вовсе предпочитаете новинкам старые добрые игры из эпохи до середины 2010-ых годов — и 4 гигабайт вам будет достаточно.
Для примера, вот столько видеопамяти потребляет Ведьмак 3 (игра 2015 года выпуска) на максимальных настройках графики в FullHD и QuadHD:
Что же касается видеокарт начального уровня — объем памяти выше 2 гигабайт для них скорее избыточен: для воспроизведения медиаконтента, аппаратного ускорения браузера и эффектов интерфейса ОС хватит и этого, а на игры AAA-класса их ГПУ уже не рассчитан.
Стоит ли выбирать карты с шиной в 256 бит вместо 128 бит
Сравнение видеокарт по «ширине» шины памяти — это всего лишь еще одна попытка выбрать из непонятного и обширного комплекса параметров одно простое число. Да, шина «толщиной» в 256 бит может обеспечить большую пропускную способность, чем шина в 128 бит, но сравнивать их можно только если все прочие параметры одинаковы. Разные типы памяти — к примеру, GDDR5 и GDDR6 — обладают совершенно разными скоростями чтения и записи и даже разными диапазонами рабочих частот, что уже делает прямое сравнение бессмысленным.
Но ведь и тут все не так просто! Дело не только в самой памяти, но и в характеристиках ГПУ: каким объемом данных он реально оперирует, и самое главное — насколько эффективно эти данные сжимает.
Metro: Exodus, разрешение экрана — FullHD, настройки графики — высокие, тесселяция включена, эффекты PhysX и Hairworks отключены:
Слева — Radeon RX 6500 XT с шиной всего лишь в 64 бита. Справа — GeForce GTX 1650 со 128-битной шиной. Обе карты используют память стандарта gddr6.
Как можно видеть по счетчику фпс и показателям редких событий — в реальной игре быстрее оказывается совсем не та карта, которая была «лучше» по цифрам в характеристиках.
Но рассмотрим еще один пример:
Star Wars Jedi Fallen Order, разрешение экрана — FullHD, настройки графики — максимальные:
Слева — Radeon RX 580 c 4 гигабайтами памяти gddr5 и 256-битной шиной. Справа — Radeon RX 5500 XT с теми же 4 гигабайтами, но — уже gddr6 на 128-битной шине.
В этом случае все наоборот: разница в кадрах невелика, несмотря на то, что карты относятся к двум разным поколениям и используют разную память. Да, быстрее оказывается более современная модель, но выигрывает она всего 2–3 кадра.
Соблазн свести все к простому объяснению «здесь цифры выше — эта карта лучше» понятен. Но на практике пользы от такого объяснения не будет: скорее наоборот, в результате вы купите видеокарту, которая в реальности окажется хуже той, которую можно было бы приобрести за тот же бюджет.
Если вам так уж хочется все упростить, и сравнивать видеокарты только по одному простому параметру — пусть этим параметром будет количество кадров в играх.
Нужно выбирать видеокарты обязательно с памятью GDDR6?
И снова — нет.
Сама по себе память стандарта gddr6 обеспечивает большую скорость обмена данными при меньшем энергопотреблении по сравнению с gddr5 — это абсолютный факт. Но, как уже говорилось выше, один параметр не может определять все характеристики видеокарты.
Опять же конкретный пример — Red Dead Redemption II, встроенный бенчмарк. Разрешение экрана — FullHD, настройки графики — средние:
Слева — GeForce GTX 1660, с 6 гигабайтами памяти стандарта gddr5. Справа — GeForce GTX 1650 Super с 4 гигабайтами памяти стандарта gddr6.
Быстрее оказывается первая карта: на ее стороне и более мощный ГПУ, и больший объем набортной памяти. Хотя последнее именно здесь не столь важно: бенчмарк задействует лишь чуть более 3.5 гигабайт. Тип набортной памяти может иметь определяющее значение только в том случае, если все прочие параметры видеокарты одинаковы. А такое случается крайне редко.
Пожалуй, единственный наглядный пример — GeForce GTX 1650, которая существует сразу в двух версиях: с памятью стандарта gddr5, и, соответственно, с gddr6:
В этом случае — разумеется, вторая версия заметно быстрее в играх. Но кроме памяти эти карты абсолютно ничем не отличаются, а потому такой результат закономерен.
Если же сравнивать карты разных моделей, а тем более — разных поколений, то тип набортной памяти снова превращается в вырванное из контекста единичное значение, по которому нельзя делать никакие выводы.
Стоит ли менять материнскую плату, если на ней PCI-e 3.0, а у карты PCI-e 4.0
Различные версии интерфейса PCI-e совместимы между собой: видеокарту, разработанную во времена PCI-e 2.0, можно без всяких проблем установить в плату с интерфейсами 3.0 и 4.0. Также и видеокарте с интерфейсом версии 4.0 ничто не запрещает работать в плате со «старой» версией интерфейса.
В качестве наглядного примера можно привести подробные материалы с разбором работы в различных режимах видеокарты Radeon RX 5700 XT и GeForce RTX 2080 Ti.
Оказывать влияние на производительность видеокарты версия интерфейса PCI-e напрямую также не может, даже если рассматривать высокопроизводительные модели, вроде GeForce RTX 3080:
Однако слово «напрямую» в абзаце выше выделено отнюдь неспроста, и косвенное влияние все же имеет место. Скоростной интерфейс важен в том случае, когда потребление видеопамяти превышает объем собственного буфера карты, и она вынуждена использовать часть оперативной памяти в качестве резерва.
Red Dead Redemption II, FullHD и высокие настройки графики:
На этих настройках бенчмарк задействует до 6 гигабайт видеопамяти, и Radeon RX 5500 XT с 8 гигабайтами на борту абсолютно все равно, на какой версии интерфейса ему работать. Кстати, PCI-e 4.0 в этом примере — слева, а PCI-e 3.0 — справа.
А вот младшая версия с 4 гигабайтами на борту – закономерно теряет в производительности, но если сравнивать её результаты с примером RX 5500 XT 8gb, то потери наблюдаются в ОБОИХ случаях. PCI-e 4.0 лишь позволяет немного сгладить этот процесс.
Причем именно сгладить, а не исправить или компенсировать потери. Так как вначале бенчмарка PCI-e 4.0 вроде бы позволяет получить более высокий фпс, но уже к середине тестовой сцены результаты на PCI-e 3.0 и PCI-e 4.0 уравниваются.
Впрочем, есть и редкие исключения, когда влияние оказывает именно пропускная способность интерфейса PCI-e:
Radeon RX 6500XT — единственная пока что видеокарта игрового класса (пусть и начального уровня), использующая всего 4 сигнальных линии PCI-e. В такой конфигурации, как показали исследования, разница в пропускной способности между PCI-e 4.0 и PCI-e 3.0 уже имеет реальное значение.
Правда, разница в реальных сценариях составляет далеко не 50, и даже не 20 процентов. В отдельных случаях она и вовсе равняется 2-3 кадрам в секунду.
Таким образом, если вы вдруг услышите советы о том, что при покупке видеокарты процессор с материнской платой тоже нужно обязательно сменить, иначе ничего работать не будет или старый интерфейс «отрежет» до 15% (20, 25, 30 и так далее) производительности видеокарты, знайте: задача этого «советчика» — именно убедить вас сделать еще одну дорогостоящую покупку.
А что тогда с PCI-e 5.0?
Интерфейс пятой версии реализован на платформе Intel LGA 1700 с процессорами Core 12-ой серии и материнскими платами на чипсетах 600-ой серии.
Несмотря на иные спецификации, внешне разъемы PCI-e x16 никак не изменились. И более того абсолютно никто и ничто не запрещает устанавливать в них актуальные видеокарты, использующие разъём PCI-e 4.0! Ну а раз так – вопрос обратной совместимости разъёмов PCI-e 5.0 c видеокартами под ранние версии интерфейса в принципе не должен подниматься.
А вот видеокарт, рассчитанных именно на интерфейс версии 5.0, в продаже (по состоянию на начало 2022 года) пока что нет, так что говорить об их реальных характеристиках не приходится. Всё пока лишь на этапе слухов и домыслов.
Естественно, PCI-e 5.0 обеспечивает огромный прирост в пропускной способности, но насколько он будет использоваться в реальности — пока загадка. Сейчас даже флагманские видеокарты в лице Radeon RX 6900 XT и GeForce RTX 3090 не упираются в пропускную способность 16 линий PCI-e версии 4.0. Будет ли следующее поколение оперировать на порядок большими объемами данных? Не имея доступа к картам следующего поколения — сказать сложно.
Более-менее реальным поводом для беспокойства может служить переход видеокарт под PCI-e 5.0 на новый разъем дополнительного питания:
Новый стандарт предполагает возможность передачи мощности до 600 ватт. Но, опять же, не зная реального энергопотребления видеокарт следующих поколений, трудно сказать, насколько такая мощность будет востребована. Не исключено, что подобными разъемами будут оснащаться лишь флагманские модели, а младшие решения продолжат использовать привычные 8- и 6-контактные колодки.
Так или иначе, беспокоиться о видеокартах следующего поколения стоит начинать только тогда, когда они будут представлены на рынке в виде реальных продуктов.
Трассировка лучей: важна или нет?
Тренд последнего времени — внедрение в игры обработки освещения в реальном времени, позволяющей отказаться от предварительной расстановки множества «искусственных» источников света по игровому уровню в пользу глобального освещения. А кроме того — внедряющей более реалистичные эффекты отражения и преломления света от различных типов поверхностей.
В самой технологии как таковой нет ничего плохого. Более того, трудно ожидать революции в графике за счет простого наращивания количества пикселей на экране и мегабайт в текстурах: необходимы именно качественные изменения, и трассировка лучей под это определение вполне подходит.
Проблема заключается несколько в ином.
Трассировка лучей хороша только в том случае, если выбранная вами видеокарта РЕАЛЬНО способна обеспечивать комфортный фпс в играх со включенными лучами.
Если мы говорим о моделях видеокарт из семейства Radeon RX 6000 и GeForce RTX 3000, то тут, разумеется, оговоркам не место: вы получите выше 60 FPS со включенными лучами в любой актуальной игре при разрешении FullHD и QuadHD. В 4К — уже не всегда, но даже там можно будет подобрать компромиссные настройки графики.
Что будет, если задействовать трассировку лучей на более бюджетных моделях карт предыдущего поколения?
Буквально:
Control, высокие настройки графики, разрешение экрана — FullHD.
Включение трассировки лучей в «полном» разрешении экрана просаживает производительность ниже 60 кадров на всех видеокартах — только RTX 2080 подбирается к заветной отметке (а точнее — выдает 59 кадров по показателю среднего ФПС).
Задействование технологии апскейла DLSS поправляет ситуацию, но изображение в данном случае генерируется в меньшем разрешении, а затем растягивается до FullHD, так что итоговое качество картинки может оказаться хуже «полного кадра». Плюс, Control — пример наиболее полной реализации DLSS по сравнению с другими играми, поддерживающими трассировку лучей.
Так стоит ли выбирать видеокарты с поддержкой трассировки лучей?
Если речь об актуальном поколении — вопрос лишен смысла, так как и Radeon RX 6000, и GeForce RTX 3000 ее в любом случае поддерживают. Не факт, что выбранная вами видеокарта обеспечит комфортный фпс со включенными лучами на тех же настройках графики, что и без них — но принципиальная возможность все равно останется.
А что это за DLSS, которая фпс повышает?
Алгоритм улучшения качества изображения, поддерживаемый картами GeForce с суффиксом RTX. То есть — для серий 2000 и 3000. Для работы алгоритма требуется наличие у видеокарты тензорных ядер, так что GTX 16** и более ранние поколения, увы, проходят мимо.
Суть алгоритма в получении более качественной картинки из изображения низкого разрешения. Проще говоря — в апскейле.
Да, по факту все гораздо сложнее, и алгоритм имеет самое прямое отношение к ИИ и нейросетям, однако со стороны пользователя работа DLSS выглядит именно так: производительность будет примерно соответствовать разрешению 720p, а качество картинки — примерно соответствовать FullHD. Ну, или оригинальное разрешение FullHD может превратиться в подобие 4К.
Разумеется, основная цель достигается, и количество кадров в секунду примерно соответствует исходному разрешению:
А вот с качеством — не все так очевидно, итоговый результат варьируется от игры к игре и от объекта к объекту. К примеру, мелкие контрастные объекты могут изобиловать артефактами:
С другой стороны, лица и волосы персонажей, особенно если они находятся в статичном положении и на них не накладывается эффект размытия в движении — с DLSS могут выглядеть даже лучше, чем в нативном разрешении со сглаживанием TAA:
К слову о сглаживании — DLSS в некоторых случаях может заменять и его, например — дорисовывая грани у объектов, которые в оригинальном качестве выглядят сильно пикселизированными, а то и вовсе теряются:
С другой стороны, хотя пропадающие в оригинальном разрешении и рассыпающиеся на квадраты щели между досками DLSS действительно дорисовывает, текстуры в этом примере — наоборот становятся менее четкими, а деревянный настил местами начинает походить на рисунок на плоской поверхности.
Пример, кстати, не единственный:
Если обратить внимание на ветку в центре, то можно заметить, что ее края в варианте с DLSS не такие резкие, и на них отсутствуют характерные «лесенки». Но вместе с тем — текстуры цветков заметно теряют в детализации по сравнению с нативным 4К.
Безусловно, это не значит, что технология сама по себе плоха: нельзя создать универсальный инструмент, который будет одинаково хорош во всех задачах. Напротив, появление такой технологии стоит приветствовать: массовый переход к геймингу в нативном разрешении 4К, судя по всему, откладывается как минимум до выхода видеокарт следующего поколения. А если вас интересует не просто высокое разрешение, а еще и реалистичное освещение — то и того дольше. Да и возможность поднять производительность в новых играх при отсутствии более производительных видеокарт и денег на них — это просто отлично!
Минус у DLSS ровно один: это жесткая привязка к технологиям Nvidia и необходимость наличия аппаратных ядер у ГПУ. То есть, если у вас установлена как минимум RTX 2060, а еще лучше — RTX 3060, вы сами сможете включить DLSS и проверить качество картинки в поддерживающих эту технологию играх. А вот с GTX 1650 или GTX 1050, увы, ничего не выйдет.
Ну, если только не…
Альтернатива DLSS
Технология AMD FidelityFX Super Resolution не задействует ИИ для дорисовки недостающих частей изображения, но зато не требует специализированных аппаратных решений, и работает на гораздо большем количестве видеокарт, причем даже на продуктах Nvidia.
Как и DLSS, FSR разрабатывалась для повышения производительности в высоких разрешениях за счет апскейла менее насыщенной пикселями картинки.
Со своей прямой задачей эта технология справляется, и справляется не хуже, чем DLSS:
А вот с качеством картинки по вышеназванным причинам не все так однозначно. Если DLSS может буквально достраивать кадр, пусть и не всегда успешно, то FSR — это набор эффектов постобработки, накладываемых на оригинальное изображение.
Да — более эффективный по сравнению с другими методами апскейла:
Да — позволяющий приблизить качество картинки к нативному разрешению. Но — не достраивающий того, чего в оригинальном кадре нет. Что, в итоге, может приводить к подобным результатам:
В примере выше и без комментариев видно, как FSR и DLSS работают с объектами на заднем плане. Если FSR буквально повторяет изображение, полученное в нативном разрешении FullHD, то DLSS, как уже говорилось в предыдущем абзаце, сглаживает края тросов и дорисовывает теряющиеся элементы. С другой стороны, где слабее DLSS — там сильнее FSR…
God of War, апскейл до QuadHD, DLSS в режиме Quality, FSR — в Ultra Quality. Иначе говоря — обе технологии в режиме максимального качества. И обе работают на RTX 3080.