Найти тему
Для вашего выбора.

Как выбрать видеокарту

Оглавление

Что выбрать — Nvidia или AMD

От какой компании купить карту — Gigabyte, Asus или MSI

Нужна игровая видеокарта. Карта с 4 гигабайтами памяти подойдет?

Стоит ли выбирать карты с шиной в 256 бит вместо 128 бит 

Стоит ли менять материнскую плату, если на ней PCI-e 3.0, а у карты PCI-e 4.0А что тогда с PCI-e 5.0?

Трассировка лучей: важна или нет?

А что это за DLSS, которая фпс повышает?

 Альтернатива DLSS

Так на что тогда нужно обращать внимание при выборе видеокарты?Критерии и варианты выбора


Всем привет!

Игровой потенциал компьютера определяется в первую очередь установленной в него видеокартой. А следовательно — к ее выбору нужно подходить не менее ответственно, чем к покупке центрального процессора или материнской платы.

В этом гайде я постараюсь рассказать о том, на что действительно стоит обратить внимание при выборе видеокарты, а какие распространенные убеждения на деле являются бесполезными и даже вредными мифами.

Что выбрать — Nvidia или AMD

Nvidia и AMD — это не видеокарты. Это, внезапно, — названия компаний.

Если же вы выбираете видеокарту — то выбирать нужно конкретный продукт за конкретную цену. Ориентироваться следует на его реальные характеристики: стоимость, количество FPS в играх, возможности разгона и получаемый от него прирост производительности.

Для наглядности — рассмотрим конкретный пример:

Radeon RX 5500 XT в версии с 4 гигабайтами набортной памяти стоит столько же, сколько GeForce GTX 1650 Super. Их энергопотребление одинаково, производительность — тоже.

Очевидно, что в данном случае можно выбирать и ту, и другую карту. И, что бы вы ни предпочли, вы абсолютно ничего не потеряете.

А вот — Radeon RX 5500 XT в версии c 8 гигабайтами, который стоит столько же, сколько и GeForce GTX 1660 но При одинаковой цене карта от AMD оказывается уже немного медленнее. Да, разницу трудно назвать существенной, и уж абсолютно точно она не позволит играть с более высокими настройками или в большем разрешении.

Но какой смысл отдавать те же деньги за продукт, который, пусть и очень условно, но слабее? Вот если разница в цене составит 2–3 тысячи рублей, которые можно «вложить» в другие комплектующие — тогда другое дело.

Оперирование мифическими параметрами вроде «репутации бренда», «стабильности софта» или «особо яркой, сочной картинки» в итоге приведет вас к покупке видеокарты, которая либо не будет справляться с вашими задачами, либо покажет себя хуже, чем решение от конкурентов.

От какой компании купить карту — Gigabyte, Asus или MSI

У каждого вендора есть несколько линеек продуктов, нацеленных на бюджетный, средний и высший ценовые сегменты. Причем касается это в том числе и карт, основанных на одном и том же графическом чипе.

Есть карты, отличающиеся от референсного дизайна только наклейкой и комплектом поставки, есть продукты, ориентированные на упрощение и удешевление оригинальной конструкции, но есть и глубоко переработанные устройства, рассчитанные на энтузиастов и оверклокеров.

-2

Соответственно, видеокарты каждого из трех типов будут отличаться разными характеристиками. К примеру, условная видеокарта Inno3D из линейки iChill, с массивным кулером, разработанным компанией Arctic по спецзаказу, всегда будет холоднее, тише и возьмет бо́льшие частоты, нежели условная видеокарта Asus TURBO, использующая для охлаждения референсную турбину. И никакая «репутация бренда» этого никогда не изменит.

-3

Впрочем, не думайте, что это не работает в обратном направлении: видеокарта Asus ROG STRIX всегда будет тише, холоднее и более приспособлена к разгону, чем, к примеру, Palit StormX на том же графическом чипе. А Palit Jetstream или Super Jetstream, в свою очередь, могут ничем не уступать Asus ROG STRIX, но побеждать их ценой…

Нужна игровая видеокарта. Карта с 4 гигабайтами памяти подойдет?

Вопрос можно переиначить следующим образом: «Я хочу купить машину, разгоняющуюся до 100 км/ч за 7 секунд. Хватит для этого машины с багажником объемом в 520 литров?». Что, согласитесь, полный абсурд — объем багажника очевидно не является фактором, влияющим на динамику разгона автомобиля.

Одно из распространенных заблуждений, касающихся видеокарт — то, что их производительность напрямую зависит от объема установленной памяти.

Отчасти это верно, но лишь отчасти. Память, установленная на видеокарте — это и есть своего рода «багажник», в котором хранится весь объем данных, генерируемых и используемых графическим процессором: игровые текстуры, геометрические вершины и буферы. Если этого объема достаточно для конкретной игры — отлично, все будет работать в штатном режиме.

Если же объем памяти мал — могут возникнуть проблемы. На современных платформах под нужды графики начнет выделяться часть оперативной памяти — однако DRR4 медленнее GDDR5 и уж тем более GDDR6, и переход к ее ресурсам может привести к временному падению производительности, что не очень комфортно.

Опять же, конкретный пример:

Horizon Zero Dawn, разрешение экрана — FullHD, настройки графики — высокие:

-4

Как можно видеть, Radeon RX 5500 XT в версии с 8 гигабайтами на борту использует собственную память, в то время как RX 5500 XT 4gb и GTX 1650 Super вынуждены использовать часть оперативки.

К чему это приводит можно заметить по счетчику FPS, и в особенности — по показателю 1% событий. Обе карты с 4 гигабайтами памяти на борту резко проседают, что делает игровой процесс далеким от понятия комфорта. С другой стороны, в этом примере речь идет об одном разрешении экрана и одном наборе настроек, при котором ни одна из трех карт не обеспечивает постоянных и стабильных 60 кадров в секунду по показателю среднего FPS. Следовательно, настройки так или иначе придется снижать.

А что будет на средних и низких настройках графики в той же сцене?

-5

-6

Как можно видеть, со снижением настроек графики потребление видеопамяти снижается. А следовательно — даже в этой требовательной игре можно найти компромиссные параметры.

Так сколько же в итоге должно быть набортной памяти? Ее не должно быть много или мало: памяти должно быть достаточно для игры на тех настройках, на которых графический процессор способен выдавать комфортный уровень FPS.

Рассмотрим это на конкретном примере: сцена из встроенного бенчмарка игры Assassin’s Creed: Valhalla, запущенного на Radeon RX 6500 XT с 4 гигабайтами памяти на борту:

-7

В примере слева используется штатный профиль «Высокие настройки». Хотя показатель среднего фпс держится на отметке в 34 кадра, постоянные просадки по 1% и 0,1% редких событий и нестабильный график времени кадра делают игровой процесс на этих настройках графики попросту невозможным. И дело не только в нехватке объема памяти, но и в том, что видеокарта начального уровня не рассчитана на игру на этих настройках графики.

Справа — та же игра и та же видеокарта, однако настройки графики понижены до средних. В этом случае потребление видеопамяти ниже буквально на один гигабайт, но кроме этого существенно снижается и нагрузка на ГПУ. 37 и 49 кадров по редким событиям, 54 и 63 кадра — по показателям минимального и среднего фпс. И абсолютно комфортный геймплей.

Объем памяти — важная характеристика видеокарты, но его нельзя рассматривать в отрыве от производительности ГПУ, игр и настроек графики, которые предполагается получить.

И уж совершенно точно не стоит думать, будто GeForce GT 730 и GeForce GTX 1650 Super при одинаковом объеме памяти в 4 гигабайта позволят выставить одинаковые настройки и получить одинаковую производительность.

Так сколько видеопамяти вообще нужно?

Если мы говорим о современных игровых видеокартах, которые РЕАЛЬНО способны тянуть игровые новинки на высоких и максимальных настройках как минимум в FullHD — 6 или 8 гигабайт памяти на борту будут обязательны. А для QuadHD и 4К — это и вовсе необходимый минимум, если не понижать настройки до средних. Но если вы не гонитесь за максимальными настройками, или вовсе предпочитаете новинкам старые добрые игры из эпохи до середины 2010-ых годов — и 4 гигабайт вам будет достаточно.

Для примера, вот столько видеопамяти потребляет Ведьмак 3 (игра 2015 года выпуска) на максимальных настройках графики в FullHD и QuadHD:

-8
-9

Что же касается видеокарт начального уровня — объем памяти выше 2 гигабайт для них скорее избыточен: для воспроизведения медиаконтента, аппаратного ускорения браузера и эффектов интерфейса ОС хватит и этого, а на игры AAA-класса их ГПУ уже не рассчитан.

Стоит ли выбирать карты с шиной в 256 бит вместо 128 бит

Сравнение видеокарт по «ширине» шины памяти — это всего лишь еще одна попытка выбрать из непонятного и обширного комплекса параметров одно простое число. Да, шина «толщиной» в 256 бит может обеспечить большую пропускную способность, чем шина в 128 бит, но сравнивать их можно только если все прочие параметры одинаковы. Разные типы памяти — к примеру, GDDR5 и GDDR6 — обладают совершенно разными скоростями чтения и записи и даже разными диапазонами рабочих частот, что уже делает прямое сравнение бессмысленным.

Но ведь и тут все не так просто! Дело не только в самой памяти, но и в характеристиках ГПУ: каким объемом данных он реально оперирует, и самое главное — насколько эффективно эти данные сжимает.

Metro: Exodus, разрешение экрана — FullHD, настройки графики — высокие, тесселяция включена, эффекты PhysX и Hairworks отключены:

-10

Слева — Radeon RX 6500 XT с шиной всего лишь в 64 бита. Справа — GeForce GTX 1650 со 128-битной шиной. Обе карты используют память стандарта gddr6.

Как можно видеть по счетчику фпс и показателям редких событий — в реальной игре быстрее оказывается совсем не та карта, которая была «лучше» по цифрам в характеристиках.

Но рассмотрим еще один пример:

Star Wars Jedi Fallen Order, разрешение экрана — FullHD, настройки графики — максимальные:

-11

Слева — Radeon RX 580 c 4 гигабайтами памяти gddr5 и 256-битной шиной. Справа — Radeon RX 5500 XT с теми же 4 гигабайтами, но — уже gddr6 на 128-битной шине.

В этом случае все наоборот: разница в кадрах невелика, несмотря на то, что карты относятся к двум разным поколениям и используют разную память. Да, быстрее оказывается более современная модель, но выигрывает она всего 2–3 кадра.

Соблазн свести все к простому объяснению «здесь цифры выше — эта карта лучше» понятен. Но на практике пользы от такого объяснения не будет: скорее наоборот, в результате вы купите видеокарту, которая в реальности окажется хуже той, которую можно было бы приобрести за тот же бюджет.

Если вам так уж хочется все упростить, и сравнивать видеокарты только по одному простому параметру — пусть этим параметром будет количество кадров в играх.

Нужно выбирать видеокарты обязательно с памятью GDDR6?

И снова — нет.

Сама по себе память стандарта gddr6 обеспечивает большую скорость обмена данными при меньшем энергопотреблении по сравнению с gddr5 — это абсолютный факт. Но, как уже говорилось выше, один параметр не может определять все характеристики видеокарты.

Опять же конкретный пример — Red Dead Redemption II, встроенный бенчмарк. Разрешение экрана — FullHD, настройки графики — средние:

-12

Слева — GeForce GTX 1660, с 6 гигабайтами памяти стандарта gddr5. Справа — GeForce GTX 1650 Super с 4 гигабайтами памяти стандарта gddr6.

Быстрее оказывается первая карта: на ее стороне и более мощный ГПУ, и больший объем набортной памяти. Хотя последнее именно здесь не столь важно: бенчмарк задействует лишь чуть более 3.5 гигабайт. Тип набортной памяти может иметь определяющее значение только в том случае, если все прочие параметры видеокарты одинаковы. А такое случается крайне редко.

Пожалуй, единственный наглядный пример — GeForce GTX 1650, которая существует сразу в двух версиях: с памятью стандарта gddr5, и, соответственно, с gddr6: в этом случае — разумеется, вторая версия заметно быстрее в играх. Но кроме памяти эти карты абсолютно ничем не отличаются, а потому такой результат закономерен.

Если же сравнивать карты разных моделей, а тем более — разных поколений, то тип набортной памяти снова превращается в вырванное из контекста единичное значение, по которому нельзя делать никакие выводы.

Стоит ли менять материнскую плату, если на ней PCI-e 3.0, а у карты PCI-e 4.0

Различные версии интерфейса PCI-e совместимы между собой: видеокарту, разработанную во времена PCI-e 2.0, можно без всяких проблем установить в плату с интерфейсами 3.0 и 4.0. Также и видеокарте с интерфейсом версии 4.0 ничто не запрещает работать в плате со «старой» версией интерфейса

.А что тогда с PCI-e 5.0?

Интерфейс пятой версии реализован на платформе Intel LGA 1700 с процессорами Core 12-ой серии и материнскими платами на чипсетах 600-ой серии.

-13

-14

Несмотря на иные спецификации, внешне разъемы PCI-e x16 никак не изменились. И более того абсолютно никто и ничто не запрещает устанавливать в них актуальные видеокарты, использующие разъём PCI-e 4.0!  Ну а раз так – вопрос обратной совместимости разъёмов PCI-e 5.0 c видеокартами под ранние версии интерфейса в принципе не должен подниматься.

А вот видеокарт, рассчитанных именно на интерфейс версии 5.0, в продаже (по состоянию на начало 2022 года) пока что нет, так что говорить об их реальных характеристиках не приходится. Всё пока лишь на этапе слухов и домыслов.

Естественно, PCI-e 5.0 обеспечивает огромный прирост в пропускной способности, но насколько он будет использоваться в реальности — пока загадка.  Сейчас даже флагманские видеокарты в лице Radeon RX 6900 XT и GeForce RTX 3090 не упираются в пропускную способность 16 линий PCI-e версии 4.0. Будет ли следующее поколение оперировать на порядок большими объемами данных? Не имея доступа к картам следующего поколения — сказать сложно.

Более-менее реальным поводом для беспокойства может служить переход видеокарт под PCI-e 5.0 на новый разъем дополнительного питания:

-15

Новый стандарт предполагает возможность передачи мощности до 600 ватт. Но, опять же, не зная реального энергопотребления видеокарт следующих поколений, трудно сказать, насколько такая мощность будет востребована. Не исключено, что подобными разъемами будут оснащаться лишь флагманские модели, а младшие решения продолжат использовать привычные 8- и 6-контактные колодки.

Так или иначе, беспокоиться о видеокартах следующего поколения стоит начинать только тогда, когда они будут представлены на рынке в виде реальных продуктов.

Трассировка лучей: важна или нет?

Тренд последнего времени — внедрение в игры обработки освещения в реальном времени, позволяющей отказаться от предварительной расстановки множества «искусственных» источников света по игровому уровню в пользу глобального освещения. А кроме того — внедряющей более реалистичные эффекты отражения и преломления света от различных типов поверхностей.

Вот пример:

Cлева- без трассировки лучей, справа с ней.
Cлева- без трассировки лучей, справа с ней.

В самой технологии как таковой нет ничего плохого. Более того, трудно ожидать революции в графике за счет простого наращивания количества пикселей на экране и мегабайт в текстурах: необходимы именно качественные изменения, и трассировка лучей под это определение вполне подходит.

Проблема заключается несколько в ином.

Трассировка лучей хороша только в том случае, если выбранная вами видеокарта РЕАЛЬНО способна обеспечивать комфортный фпс в играх со включенными лучами.

Если мы говорим о моделях видеокарт из семейства Radeon RX 6000 и GeForce RTX 3000, то тут, разумеется, оговоркам не место: вы получите выше 60 FPS со включенными лучами в любой актуальной игре при разрешении FullHD и QuadHD. В 4К — уже не всегда, но даже там можно будет подобрать компромиссные настройки графики.

Что будет, если задействовать трассировку лучей на более бюджетных моделях карт предыдущего поколения?

Буквально:

Control, высокие настройки графики, разрешение экрана — FullHD.

-17

Включение трассировки лучей в «полном» разрешении экрана просаживает производительность ниже 60 кадров на всех видеокартах — только RTX 2080 подбирается к заветной отметке (а точнее — выдает 59 кадров по показателю среднего ФПС).

Задействование технологии апскейла DLSS поправляет ситуацию, но изображение в данном случае генерируется в меньшем разрешении, а затем растягивается до FullHD, так что итоговое качество картинки может оказаться хуже «полного кадра». Плюс, Control — пример наиболее полной реализации DLSS по сравнению с другими играми, поддерживающими трассировку лучей.

Так стоит ли выбирать видеокарты с поддержкой трассировки лучей?

Если речь об актуальном поколении — вопрос лишен смысла, так как и Radeon RX 6000, и GeForce RTX 3000 ее в любом случае поддерживают. Не факт, что выбранная вами видеокарта обеспечит комфортный фпс со включенными лучами на тех же настройках графики, что и без них — но принципиальная возможность все равно останется.

А что это за DLSS, которая фпс повышает?

Алгоритм улучшения качества изображения, поддерживаемый картами GeForce с суффиксом RTX. То есть — для серий 2000 и 3000. Для работы алгоритма требуется наличие у видеокарты тензорных ядер, так что GTX 16** и более ранние поколения, увы, проходят мимо.

Суть алгоритма в получении более качественной картинки из изображения низкого разрешения. Проще говоря — в апскейле.

Да, по факту все гораздо сложнее, и алгоритм имеет самое прямое отношение к ИИ и нейросетям, однако со стороны пользователя работа DLSS выглядит именно так: производительность будет примерно соответствовать разрешению 720p, а качество картинки — примерно соответствовать FullHD. Ну, или оригинальное разрешение FullHD может превратиться в подобие 4К.

Разумеется, основная цель достигается, и количество кадров в секунду примерно соответствует исходному разрешению:

-18

А вот с качеством — не все так очевидно, итоговый результат варьируется от игры к игре и от объекта к объекту. К примеру, мелкие контрастные объекты могут изобиловать артефактами:

-19

С другой стороны, лица и волосы персонажей, особенно если они находятся в статичном положении и на них не накладывается эффект размытия в движении — с DLSS могут выглядеть даже лучше, чем в нативном разрешении со сглаживанием TAA:

-20

К слову о сглаживании — DLSS в некоторых случаях может заменять и его, например —  дорисовывая грани у объектов, которые в оригинальном качестве выглядят сильно пикселизированными, а то и вовсе теряются:

-21

С другой стороны, хотя пропадающие в оригинальном разрешении и рассыпающиеся на квадраты щели между досками DLSS действительно дорисовывает, текстуры в этом примере — наоборот становятся менее четкими, а деревянный настил местами начинает походить на рисунок на плоской поверхности.

Пример, кстати, не единственный:

-22

Если обратить внимание на ветку в центре, то можно заметить, что ее края в варианте с DLSS не такие резкие, и на них отсутствуют характерные «лесенки». Но вместе с тем — текстуры цветков заметно теряют в детализации по сравнению с нативным 4К.

Безусловно, это не значит, что технология сама по себе плоха: нельзя создать универсальный инструмент, который будет одинаково хорош во всех задачах. Напротив, появление такой технологии стоит приветствовать: массовый переход к геймингу в нативном разрешении 4К, судя по всему, откладывается как минимум до выхода видеокарт следующего поколения. А если вас интересует не просто высокое разрешение, а еще и реалистичное освещение — то и того дольше. Да и возможность поднять производительность в новых играх при отсутствии более производительных видеокарт и денег на них — это просто отлично!

Минус у DLSS ровно один: это жесткая привязка к технологиям Nvidia и необходимость наличия аппаратных ядер у ГПУ. То есть, если у вас установлена как минимум RTX 2060, а еще лучше — RTX 3060, вы сами сможете включить DLSS и проверить качество картинки в поддерживающих эту технологию играх. А вот с GTX 1650 или GTX 1050, увы, ничего не выйдет.

Ну, если только не…

Альтернатива DLSS

Технология AMD FidelityFX Super Resolution не задействует ИИ для дорисовки недостающих частей изображения, но зато не требует специализированных аппаратных решений, и работает на гораздо большем количестве видеокарт, причем даже на продуктах Nvidia.

Как и DLSS, FSR разрабатывалась для повышения производительности в высоких разрешениях за счет апскейла менее насыщенной пикселями картинки.

Со своей прямой задачей эта технология справляется, и справляется не хуже, чем DLSS:

-23

А вот с качеством картинки по вышеназванным причинам не все так однозначно. Если DLSS может буквально достраивать кадр, пусть и не всегда успешно, то FSR — это набор эффектов постобработки, накладываемых на оригинальное изображение.

Да — более эффективный по сравнению с другими методами апскейла:

Да — позволяющий приблизить качество картинки к нативному разрешению. Но — не достраивающий того, чего в оригинальном кадре нет. Что, в итоге, может приводить к подобным результатам:

В примере выше и без комментариев видно, как FSR и DLSS работают с объектами на заднем плане. Если FSR буквально повторяет изображение, полученное в нативном разрешении FullHD, то DLSS, как уже говорилось в предыдущем абзаце, сглаживает края тросов и дорисовывает теряющиеся элементы. С другой стороны, где слабее DLSS — там сильнее FSR…

Так на что тогда нужно обращать внимание при выборе видеокарты?

1) На ее цену.

Парадоксально, но это одновременно самый очевидный и самый… неоднозначный параметр.  С одной стороны, задумав покупку, вы уже знаете, какую сумму теоретически готовы потратить, и в каких лимитах эта сумма может изменяться, если это необходимо.

С другой стороны, цена не всегда отражает реальную производительность видеокарты. Возможны казусы, когда карта старой и менее производительной модели стоит столько же, сколько более быстрый современный аналог.

Возможны и более любопытные варианты, когда карта, основанная на менее производительном ГПУ, но оснащенная топовым охлаждением и переработанной платой стоит столько же или буквально чуть дешевле, чем более производительные карты с «меньшим уровнем пафоса»:

Именно поэтому никогда не стоит упираться в единственный вариант — всегда могут быть более выгодные альтернативы.

Даже если вам кажется, что выбранный вами вариант оптимален по всем параметрам, даже если его наперебой советуют «интернет-знатоки», даже если вы пересмотрели кучу обзоров именно на эту модель — в реалиях рынка соотношение цены и характеристик может  оказаться не самым выгодным.

Поэтому — всегда выбирайте несколько вариантов, попадающих в ваш исходный бюджет, но также оставляйте небольшой запас для «маневров». Уж поверьте, но 25 тысяч рублей за карту, способную тянуть игры в FullHD на высоких настройках графики, и 27 тысяч рублей за карту, способную тянуть те же игры на максимальных настройках, или с комфортом играть в QuadHD — это очень сомнительная разница в цене.

Обязательно следите за скидками и акциями магазина, а также интересуйтесь сроками выхода новинок — с появлением даже просто новых моделей на чипах текущего поколения ценовая политика вендора может заметно измениться, а на действия одного производителя обязательно отреагируют конкуренты.

Кроме того, не постесняйтесь узнать, сколько стоит на рынке б/у комплектующих ваша нынешняя видеокарта. Не исключено, что ее продажа позволит добавить значительную сумму к бюджету на покупку новой.

2) Производительность.

Этот аспект вполне очевиден, и более того — именно он определяет итоговый выбор. За какую бы цену вы ни выбирали видеокарту — она должна с лихвой отрабатывать каждый вложенный рубль.

Но не стоит оценивать производительность по отзывам и комментариям в стиле «<название_игры> литаит на ультрах!». Их можно написать про какое угодно устройство. Да и как правило, единственное, с чем пользователи могут сравнить свою покупку — это их старая видеокарта, которая может быть старше сразу на несколько поколений. Естественно, это не даст понять, как видеокарта выглядит на фоне прямых конкурентов.

Ваш вариант — прямые сравнительные тестирования, проводимые авторитетными изданиями при участии если не всех, то большинства конкурирующих решений. Ознакомившись с ними, вы будете представлять, насколько выбранная видеокарта быстрее или медленнее ближайших аналогов, а следовательно — сделаете аргументированный выбор.

3) Энергопотребление видеокарты

Безусловно, идеальный сценарий — это если при покупке видеокарты и внезапной нехватке мощности вашего нынешнего блока питания вы просто идете в магазин и приобретаете новый блок.

Но, во-первых, давайте называть вещи своими именами: далеко не у всех из нас бюджеты позволяют купить одновременно два не самых дешевых девайса.

А во-вторых, энергопотребление видеокарт некоторые люди понимают настолько по-своему, что советы приобретать блоки мощностью в 750 ватт под GeForce GTX 1650 Super и Radeon RX 5500 XT в современных интернетах — ни разу не редкость.

В этих условиях задача — купить видеокарту, с которой справится ваш нынешний блок, и с другой стороны — не потратить деньги на новый блок, мощность которого заведомо избыточна для конфигурации с новой видеокартой.

Как это сделать? Довольно просто, и есть два возможных способа.

Первый из них — прочесть обзор на видеокарту от авторитетного источника. Да, нередко в обзорах указывается энергопотребление всей системы, а не отдельно видеокарты — но так получается даже более наглядно. Ведь, если тестовая система на условном Core i9-9900K в разгоне показывает пиковое энергопотребление на уровне 580 ватт, а в игровом режиме ест 300–350 ватт, то ваш компьютер с опять же, условным Core i5-9400F потреблять будет очевидно меньше.

-24

Второй способ — подробно ознакомиться с характеристиками интересующей вас карты. Только не с теми, что напечатаны в таблице со спецификациями, а с теми, что хранятся в самой карте. А точнее — в ее BIOS.

Одна из ключевых характеристик современных видеокарт — лимит энергопотребления. Программное ограничение, обойти которое карта сама по себе не может. Так, если карте назначен лимит в 130 ватт — необходимость блока на 750–800 ватт для нее несколько… сомнительна.

Тут, кстати, следует сделать одну очень важную оговорку. Видеокарта — это лишь одна из частей системы, в которой живут процессор, материнская плата, оперативная память, SSD, жесткие диски и даже корпусные вентиляторы. Все эти «соседи» тоже питаются электричеством, и при работе тоже хотят есть. Поэтому рассчитывать мощность блока питания необходимо исходя из требований не видеокарты, а всей системы в целом.

4) Разъемы дополнительного питания

Этот пункт также касается БП, однако его стоит вынести отдельно.

Современные видеокарты игрового класса в большинстве случаев потребляют больше электричества, чем способен обеспечить слот PCI-e x16, а потому оснащаются разъемами дополнительного питания, соединяющими карту напрямую с БП.

Разъемы эти стандартизированы и могут насчитывать 6 либо 8 контактов.

-25

Но дело в том, что разные версии карт даже одной модели могут использовать разные сочетания этих разъемов:

  • два 6-контактных;
  • один 6- и один 8-контактный;
  • один 8-контактный разъем;
  • два 8-контактных разъема;
  • два 8-контактных и один 6-контактный разъем;
  • три 8-контактных разъема.

Прежде чем выбирать конкретную модель карты, нужно удостовериться, что ваш блок обладает нужным количеством разъемов дополнительного питания для устройств PCI-e. Если их нет, или количество недостаточно — можно воспользоваться переходниками 4-контактных разъемов Molex, но в таком случае их стоит приобрести либо заранее, либо одновременно с покупкой карты.

И да — в последнее время парадоксальная путаница возникает вокруг разъемов 6+2-pin PCI-e на блоках питания. В комментариях можно прочесть много странных и неописуемо диких вещей, но в реальности этот разъем делается разборным как раз для того, чтобы им можно было подключать карты и с 8-, и с 6-контактными колодками.

5) Физические размеры карты

Разные версии карт на одном и том же графическом чипе могут оснащаться разными системами охлаждения, а, следовательно, обладать разной длиной и толщиной.

В то же время, компьютерные корпуса могут допускать установку видеокарт строго определенной длины, а разъемы PCI-e на материнских платах располагаться так, что карты расширения можно расположить только в строго определенной последовательности. Это, конечно, не катастрофа, но вы лично готовы менять ради видеокарты еще и корпус компьютера, или отказываться от привычной и подходящей вам звуковой карты? Если нет, то перед покупкой обязательно изучите, сколько места интересная вам карта занимает в длину, и сколько слотов расширения на материнской плате перекрывает ее система охлаждения:

-26

Возможно, чтобы сохранить нынешний корпус и карты расширения, вам придется выбрать другую, более компактную модель карты. Возможно, она даже будет отличаться более высокими температурами и/или повышенным уровнем шума по сравнению с более массивной моделью, но тут уже вам решать, что более приоритетно. И решать следует заранее, а не после покупки карты.

6) Разъемы для вывода сигнала на монитор

С одной стороны, сильной путаницы разъемы для подключения к монитору не вызывают. С другой — далеко не все карты обладают теми разъемами, которые есть именно на вашем мониторе. И в особенности это касается как раз современных моделей.

Так, разъем VGA канул в неизвестность вместе с видеокартами GeForce серии 900 и Radeon серии 300. Современные видеокарты не поддерживают вывод аналогового сигнала вовсе: ни через нативный разъем VGA, ни через комбинированный DVI-I их на картах текущих поколений просто нет.

-27

Если вы используете монитор, подключаемый исключительно через аналоговый интерфейс, можно воспользоваться конвертерами (например, HDMI-VGA), преобразующими цифровой сигнал в аналоговый. Однако, если быть честным, такое решение — полумера. Гарантировать качество картинки на мониторе ни один подобный переходник не может, так что польза от них сомнительна. Да и стоят они немало, и гораздо выгоднее будет взять эти деньги, продать ваш старый монитор на вторичном рынке, добавить полученную сумму и купить уже другой монитор, поддерживающий цифровые интерфейсы.

К слову, цифровой разъем DVI-D тоже становится исчезающим видом: последние модели видеокарт от него отказываются в пользу HDMI и DisplayPort.

Впрочем, получить «цифру» из «цифры» не в пример проще, и переходники HDMI-DVI стоят гораздо дешевле активных конвертеров. Но, если выбранная вами карта нуждается в переходниках, лучше узнать об этом заранее и купить их одновременно с самой картой, а не ездить в магазин дважды.

7) Эффективность системы охлаждения и акустический комфорт

Этот пункт стоит последним в списке — однако не потому, что он не важен, а потому, что им возможно пожертвовать ради приобретения более производительной видеокарты, либо карты, совместимой по габаритам и разъемам с другим вашим оборудованием.

Но, разумеется, о температурах видеокарты под нагрузкой и уровне издаваемого ей шума забывать не стоит.

Видеокарты референсного дизайна с кулером типа «турбина» покупать не рекомендуется — пусть современные ГПУ и не столь горячи, конструктивным недостатком таких кулеров остается малая площадь поверхности радиатора. И чтобы эффективно снять с него тепло — турбине придется раскручиваться до достаточно высоких скоростей. А выше скорость — больше шума. Тихоходные кулеры вендорского дизайна в этом плане куда предпочтительнее.

-28

Впрочем, и гоняться за самыми топовыми версиями видеокарт сегодня тоже не имеет смысла. Даже если рассматривать карты уровня того же Radeon RX 5700 XT — реальная разница в температурах может оказаться несколько ниже разницы в цене. А разброс по частотам в данном случае легко компенсируется ручной настройкой.

Перед покупкой видеокарты следует внимательно изучить обзоры, в которых показана конструкция установленной системы охлаждения и протестирована ее эффективность. Здесь также желательно сравнение с конкурентами, однако выводы можно сделать и по графикам температур и шума одиночной карты.

Также следует помнить, что восприятие шума у каждого человека индивидуально, и к тому же, сильно зависит от естественного шумового фона в помещении. Ориентируйтесь на следующие цифры:

  • 25–30 децибел — естественный шумовой фон глухой ночью в квартире с закрытыми окнами при отсутствии других источников шума.
  • 40 децибел — тихий разговор.
  • 55–60 децибел — средний уровень шума днем в офисе.

Критерии и варианты выбора

Видеокарты начального уровня подойдут для офисных задач, воспроизведения мультимедийного контента и достаточно старых и нетребовательных игр. Если рассматривать видеокарты для мультимедийного ПК, собранного в компактном корпусе, отдельного внимания заслуживают низкопрофильные карты.

-29

Однако, выбирать их следует с оглядкой на остальные комплектующие. Если у вас относительно старое железо, или же процессор не оснащен встроенной графикой — покупка, безусловно, будет иметь смысл.

Если же ПК только планируется собирать — стоит обратить внимание на центральные процессоры со сравнительно мощной встроенной графикой.

Также, если у вас старый монитор с интерфейсом VGA, и менять его по той или иной причине вы не хотите — безусловно, имеет смысл посмотреть видеокарты с нативным разъемом VGA или DVI-I. Подключить к ним такой монитор гораздо проще, чем к современным аналогам.

-30

Однако имейте ввиду, что это в большинстве случаев будут старые и далеко не самые производительные модели. Поэтому, если замена монитора — не ваш путь, стоит купить конвертер сигнала в помощь более современной видеокарте.

-31
-32

Если необходимо больше производительности, но из игр интересуют в первую очередь различные сетевые проекты — можно ограничиться игровыми видеокартами начального уровня. На практике они способны и на большее, чем DOTA и Танки — правда, в более серьезных проектах придется ограничиться средними настройками графики.

Средние настройки и FPS, лишь немного превышающий границу комфорта — не ваш вариант? Обратите внимание на карты, составляющие основную долю среднего ценового сегмента. На практике они способны и на большее, чем дота и танки — правда, в более серьёзных проектах придется ограничиться средними настройками графики.

На верхней границе среднего ценового сегмента расположились карты, способные поднять настройки в FullHD ближе к максимальным. С ними тоже не имеет смысла замахиваться на более высокие разрешения, но актуальность они сохранят несколько дольше предыдущих вариантов.

-33

Не слишком придирчивы к графике, но берете карту с расчетом не апгрейдить ее в течение нескольких лет? Стоит обратить внимание на карты из нижней границы топового сегмента. Обойдутся они уже дороже предыдущих вариантов, но далеко не в разы. А актуальность сохранят куда на дольше — не исключено, что траты окажутся гораздо меньше, чем в случае покупки среднебюджетной карты сегодня и ее замены на аналог из следующего поколения.

-34

Хотите попробовать новые технологии, играть в разрешениях 2К и 4К с высокими настройками и комфортным FPS, или же вам нужна карта для онлайн-трансляций? Тут уже в дело вступают флагманы с бескомпромиссной ценой и столь же бескомпромиссной производительностью.

Всем удачи и пока!