Найти тему

Как выбрать видеокарту и не пожалеть об этом? Гайд по покупке

Оглавление

Игровой потенциал компьютера определяется в первую очередь установленной в него видеокартой. А следовательно — к ее выбору нужно подходить не менее ответственно, чем к покупке центрального процессора или материнской платы.

В этом гайде мы в очередной раз постараемся рассказать о том, на что действительно стоит обратить внимание при выборе видеокарты, а какие распространенные убеждения на деле являются бесполезными и даже вредными мифами.

Что выбрать — Nvidia или AMD

Nvidia и AMD — это не видеокарты. Это, внезапно, — названия компаний.

Если же вы выбираете видеокарту — то выбирать нужно конкретный продукт за конкретную цену. Ориентироваться следует на его реальные характеристики: стоимость, количество FPS в играх, возможности разгона и получаемый от него прирост производительности.

Для наглядности — рассмотрим конкретный пример:

Radeon RX 5500 XT в версии с 4 гигабайтами набортной памяти стоит столько же, сколько GeForce GTX 1650 Super. Их энергопотребление одинаково, производительность — тоже.

Очевидно, что в данном случае можно выбирать и ту, и другую карту. И, что бы вы ни предпочли, вы абсолютно ничего не потеряете.

А вот — Radeon RX 5500 XT в версии c 8 гигабайтами, который стоит столько же, сколько и GeForce GTX 1660:

При одинаковой цене карта от AMD оказывается уже немного медленнее. Да, разницу трудно назвать существенной, и уж абсолютно точно она не позволит играть с более высокими настройками или в большем разрешении.

Но какой смысл отдавать те же деньги за продукт, который, пусть и очень условно, но слабее? Очевидно, что никакого. Вот если разница в цене составит 2–3 тысячи рублей, которые можно «вложить» в другие комплектующие — тогда совсем другое дело.

Оперирование мифическими параметрами вроде «репутации бренда», «стабильности софта» или «особо яркой, сочной картинки» в итоге приведет вас к покупке видеокарты, которая либо вовсе не будет справляться с вашими задачами, либо — покажет себя хуже, чем решение от конкурентов.

От какой компании купить карту — Gigabyte, Asus или MSI

У каждого вендора есть несколько линеек продуктов, нацеленных на бюджетный, средний и высший ценовые сегменты. Причем касается это в том числе и карт, основанных на одном и том же графеическом чипе.

Есть карты, отличающиеся от референсного дизайна только наклейкой и комплектом поставки, есть продукты, ориентированные на упрощение и удешевление оригинальной конструкции, но есть и глубоко переработанные устройства, рассчитанные на энтузиастов и оверклокеров.

Соответственно, видеокарты каждого из трех типов будут отличаться разными итоговыми характеристиками.К примеру, условная видеокарта Inno3D из линейки iChill, оснащенная массивным кулером, разработанным компанией Arctic по спецзаказу, всегда будет холоднее, тише и возьмет бо́льшие частоты, нежели условная видеокарта Asus TURBO, использующая для охлаждения референсную турбину. И никакая «репутация бренда» этого никогда не изменит.

-2

Впрочем, не думайте, что это не работает в обратном направлении: видеокарта Asus ROG STRIX всегда будет тише, холоднее и более приспособлена к разгону, чем, к примеру, Palit StormX на том же графическом чипе. А Palit Jetstream или Super Jetstream, в свою очередь, могут ничем не уступать Asus ROG STRIX, но побеждать их ценой…

-3

Нужна игровая видеокарта. Карта с 4 гигабайтами памяти подойдет?

Вопрос можно переиначить следующим образом: «Я хочу купить машину, разгоняющуюся до 100 км/ч за 7 секунд. Хватит для этого машины с багажником объемом в 520 литров?». Что, согласитесь, полный абсурд — объем багажника очевидно не является фактором, влияющим на динамику разгона автомобиля.

Одно из распространенных заблуждений, касающихся видеокарт — то, что их производительность напрямую зависит от объема установленной памяти.

Отчасти это верно, но лишь отчасти. Память, установленная на видеокарте — это и есть своего рода «багажник», в котором хранится весь объем данных, генерируемых и используемых графическим процессором: игровые текстуры, геометрические вершины и буферы. Если этого объема достаточно для конкретной игры — отлично, все будет работать в штатном режиме.

Если же объем памяти мал — могут возникнуть проблемы. На современных платформах под нужды графики начнет выделяться часть оперативной памяти — однако DRR4 медленнее GDDR5 и уж тем более GDDR6, и переход к ее ресурсам может привести к временному падению производительности, что не очень комфортно.

Опять же, конкретный пример:

Horizon Zero Dawn, разрешение экрана — FullHD, настройки графики — высокие:

-4

Как можно видеть, Radeon RX 5500 XT в версии с 8 гигабайтами на борту использует собственную память, в то время как RX 5500 XT 4gb и GTX 1650 Super вынуждены использовать часть оперативки.

К чему это приводит можно заметить по счетчику FPS, и в особенности — по показателю 1% событий. Обе карты с 4 гигабайтами памяти на борту резко проседают, что делает игровой процесс далеким от понятия комфорта. С другой стороны, в этом примере речь идет об одном разрешении экрана и одном наборе настроек, при котором ни одна из трех карт не обеспечивает постоянных и стабильных 60 кадров в секунду по показателю среднего FPS. Следовательно, настройки так или иначе придется снижать.

А что будет на средних и низких настройках графики в той же сцене?

-5

Как можно видеть, со снижением настроек графики потребление видеопамяти снижается. А следовательно — даже в этой требовательной игре можно найти компромиссные параметры.

Так сколько же в итоге должно быть набортной памяти? Ее не должно быть много или мало: памяти должно быть достаточно для игры на тех настройках, на которых графический процессор способен выдавать комфортный уровень FPS.

Да, если мы говорим о современных игровых видеокартах, которые РЕАЛЬНО способны тянуть игровые новинки на высоких и максимальных настройках как минимум в FullHD — 6 или 8 гигабайт памяти на борту будут обязательны. А для QuadHD и 4К — это и вовсе необходимый минимум, если не понижать настройки до средних. Но если вы не гонитесь за максимальными настройками, или вовсе предпочитаете новинкам старые добрые игры из эпохи до середины 2010-ых годов — и 4 гигабайт вам будет достаточно.

Для примера, вот столько видеопамяти потребляет Ведьмак 3 (игра 2015 года выпуска) на максимальных настройках графики в FullHD и QuadHD:

-6

Но, разумеется, здесь тоже не стоит думать, что любая видеокарта с 4 гигабайтами памяти на борту покажет комфортную производительность на выбранных настройках графики. Версии с 4 гигабайтами, если что, были и у GeForce GT 730 — да вот ждать от нее вменяемой производительности даже в играх 2010–2015 годов не стоит.

Что же касается видеокарт начального уровня — объем памяти выше 2 гигабайт для них скорее избыточен: для воспроизведения медиаконтента, аппаратного ускорения браузера и эффектов интерфейса ОС хватит и этого, а на игры AAA-класса их ГПУ уже не рассчитан.

Стоит ли выбирать карты с шиной в 256 бит вместо 128 бит

Как и вопрос с объемом памяти, попытки измерения производительности видеокарты шириной шины памяти — есть попытки упростить вопрос и свести весь комплекс параметров к одному простому и «понятному» показателю.

Вот только не все так просто, как школьный пример со сравнением большей и меньшей цифр. Да, формально шина «толщиной» в 256 бит отличается большей пропускной способностью, чем шина в 128 бит, только сравнивать их можно лишь если все прочие параметры одинаковы!

Разные типы памяти, к примеру, GDDR5 и GDDR6, обладают совершенно разными скоростями чтения и записи, и даже разными диапазонами рабочих частот, что уже делает прямое сравнение бессмысленным.

Но ведь дело не только в самой памяти, но и в характеристиках ГПУ: каким объемом данных он реально оперирует, и самое главное — насколько эффективно эти данные сжимает.

Как результат, на практике можно рассмотреть следующие примеры:

Metro: Exodus, разрешение экрана — FullHD, настройки графики — высокие, тесселяция включена:

-7

Слева — Radeon RX Vega 56 со скоростной памятью типа HBM2 и 2048-битной шиной. Справа — GeForce RTX 2060 с gddr6 и 192-битной шиной.

Сильно ли в данном случае шина памяти «помогла» карте AMD и наоборот, «помешала» карте Nvidia? Судя по счетчику кадров — не сильно, ведь производительность обеих карт одинакова. Возможно, ввиду этого пример не столь показателен. Рассмотрим еще один.

Star Wars Jedi Fallen Order, разрешение экрана — FullHD, настройки графики — максимальные:

-8

Слева — Radeon RX 580 c 4 гигабайтами памяти gddr5 и 256-битной шиной. Справа — Radeon RX 5500 XT с теми же 4 гигабайтами, но — уже gddr6 на 128-битной шине.

Так кто из них показывает больше кадров в секунду, в том числе и 1% событий?

Соблазн свести все к простому объяснению «здесь цифры выше — эта карта лучше» безусловно, понятен. Но на практике пользы от такого объяснения не будет: скорее всего, такие аргументы приведут вас к покупке видеокарты, которая по производительности или по совокупности характеристик окажется хуже той, которую вы могли бы приобрести за ваш бюджет.

Поэтому рассматривать нужно только все характеристики в комплексе. Если же хочется все упростить — берите в качестве определяющего параметра производительность карты в интересующих вас играх, а не цифры в спецификациях.

Стоит ли менять материнскую плату, если на ней PCI-e 3.0, а у карты PCI-e 4.0

Различные версии интерфейса PCI-e совместимы между собой: видеокарту, разработанную во времена PCI-e 2.0, можно без всяких проблем установить в плату с интерфейсами 3.0 и 4.0. Также и видеокарте с интерфейсом версии 4.0 ничто не запрещает работать в плате со «старой» версией интерфейса.

В качестве наглядного примера можно привести подробные материалы с разбором работы в различных режимах видеокарты Radeon RX 5700 XT и GeForce RTX 2080 Ti.

Следовательно, никакой потери в производительности при установке видеокарты с «новым» интерфейсом в компьютер со «старым» интерфейсом вы не увидите. Тем более — если речь не о картах флагманского класса:

Если вы выбираете одну новую видеокарту, к тому же далеко не топовой модели, и вдруг слышите советы о том, что платформу тоже нужно обязательно сменить, иначе ничего работать не будет или старый интерфейс «отрежет» до 15% (20, 25, 30 и так далее) производительности видеокарты, знайте: задача этого «советчика» — убедить вас купить еще и новый центральный процессор с новой материнской платой.

Насколько лично вам это будет выгодно — нетрудно догадаться. Особенно если кроме нового интерфейса PCI-e насоветованное вам железо ничем не лучше вашего нынешнего.

Трассировка лучей: важна или нет?

Тренд последнего времени — внедрение в игры обработки освещения в реальном времени, позволяющей отказаться от предварительной расстановки множества «искусственных» источников света по игровому уровню в пользу глобального освещения. А кроме того — внедряющей более реалистичные эффекты отражения и преломления света от различных типов поверхностей.

В самой технологии как таковой нет ничего плохого. Более того, трудно ожидать революции в графике за счет простого наращивания количества пикселей на экране и мегабайт в текстурах: необходимы именно качественные изменения, и трассировка лучей под это определение вполне подходит.

Проблема заключается несколько в ином.

Во-первых, новую технологию поддерживает весьма малое количество игр, и обрастать новыми громкими тайтлами список не особо-то спешит. Почему так? Очень просто: на данном этапе разработчикам фактически приходится делать две разных версии игры: со «старыми» методами освещения и, соответственно, с «новыми». А это — лишние сложности, когда выпуск игр AAA-класса и без того сопровождается дикими переработками и скандалами даже у самых известных студий и издательств.

Во-вторых, как и любая технология в принципе, трассировка лучей хороша только в том случае, если выбранная вами видеокарта РЕАЛЬНО способна обеспечивать комфортный фпс в играх со включенными лучами.

Если мы говорим о флагманских моделях видеокарт из семейства Radeon RX 6000 и GeForce RTX 3000, то тут, разумеется, оговоркам не место: вы получите выше 60 фпс со включенными лучами в любой актуальной игре при разрешении FullHD и QuadHD. В 4К — уже не всегда, но даже там можно будет подобрать компромиссные настройки графики.

Но что будет, если задействовать трассировку лучей на более бюджетных моделях карт предыдущего поколения?

Буквально — это:

Control, высокие настройки графики, разрешение экрана — FullHD.

-9

Включение трассировки лучей в «полном» разрешении экрана просаживает производительность ниже 60 кадров на всех видеокартах — только RTX 2080 подбирается к заветной отметке (а точнее — выдает 59 кадров по показателю среднего ФПС).

Задействование технологии апскейла DLSS поправляет ситуацию, но изображение в данном случае генерируется в меньшем разрешении, а затем растягивается до FullHD, так что итоговое качество картинки вполне может оказаться хуже «полного кадра». Плюс, Control — пример наиболее полной реализации DLSS по сравнению с другими играми, поддерживающими трассировку лучей.

Так стоит ли выбирать видеокарты с поддержкой трассировки лучей?

Если речь об актуальном поколении — вопрос лишен смысла, так как и Radeon RX 6000, и GeForce RTX 3000 ее в любом случае поддерживают.

Если же говорить о предыдущем поколении, то тут нужно иметь ввиду фактические возможности карт. Да, RTX 2080Ti, RTX 2080 Super и RTX 2080 способны показать вменяемую производительность со включенными лучами как минимум в FullHD и QuadHD.

Но не ждите того же от RTX 2070 и уж тем более от RTX 2060. Да, аппаратные RT-ядра у них тоже есть, трассировка здесь не программная, в отличие от GTX 1660 Ti. Но сами эти карты даже без всякой трассировки вынудят вас искать компромиссные настройки графики. А уж со включенным DXR — тем более.

Стоит ли выбирать видеокарту под процессор

Нет, видеокарта выбирается под игры — либо под рабочие задачи, которые предполагается решать с ее помощью.

Зависимость же игр от процессора, во-первых, в большинстве случаев, преувеличена, а во-вторых — абсолютно никогда не бывает линейной и не сводится к простой формуле «дороже процессор — больше FPS», которую предлагают вам «раскрывашки».

Total War: Three Kingdoms. Игра, довольно требовательная к ресурсам центрального процессора и к тому же использующая преимущества многопотока:

-10

Слева — Intel Core i9-9900KF. Справа — Intel Core i7-9700KF. Оба процессора разогнаны до 5000 МГц, частота кольцевой шины поднята до 4700 МГц, видеокарта RTX 2080 Ti работает в штатном для нее режиме, все прочие условия идентичны. При этом, в случае с Core i7-9700KF FPS в бенчмарке оказывается… выше!

Да, это исключительно частный случай, связанный с тем, что технология Hyper Threading, отличающая Core i9 от Core i7, в играх далеко не всегда работает корректно, и производительность старшей (!!!) модели ЦПУ при прочих одинаковых условиях оказывается ниже, чем у младшей.

WarThunder, являющийся уже диаметрально противоположным примером, так как движок игры по сей день активно использует не более 2-х ядер процессора:

-11

Слева — снова Core i9-9900KF, но на сей раз — в номинальном для него режиме. 4700 МГц по всем ядрам за счет технологии MCE, 4300 МГц на кольцевой шине.

Справа — уже Core i5-9600KF, разогнанный ровно до тех же параметров. Все прочие характеристики системы идентичны, в качестве видеокарты опять используется RTX 2080 Ti.

Разница в FPS, опять же, в комментариях не нуждается. В данном случае Core i9 в принципе не может иметь никаких преимуществ над Core i5 — игра попросту не использует «лишние» ядра. А технология Hyper Threading здесь опять ведет себя не лучшим образом, что и позволяет Core i5-9600KF выдавать немного больше кадров в секунду.

Те же условия, те же Core i9 и Core i5, но Assassin’s Creed: Odyssey, использующий преимущества многопотока:

-12

Производительность с Core i5-9600KF здесь уже ниже на 10–15 кадров, то есть ни о каком превращении RTX 2080 Ti в RTX 2060 речи тут не идет, да и идти не может. Кстати, вот это — RTX 2060 в том же тесте и при тех же настройках. Сравните показатели счетчика FPS:

-13

У каждой игры свои требования к характеристикам центрального процессора. Так, где-то используется максимально доступное количество ядер и, например, старые процессоры под ту же платформу LGA 2011 могут не только эффективно справляться с игрой, выпущенной на 7 лет позже них самих, но и обеспечивать более комфортный геймплей, чем современные бюджетные модели под LGA 1200.

Где-то — наоборот, количество ядер не имеет значения, важна только тактовая частота и производительность в однопоточной нагрузке. Какие-то игры в силу особенностей движка в принципе мало зависимы от процессора и более требовательны к видеокарте. Да и сама «зависимость» от характеристик процессора в одной и той же игре может меняться со сменой разрешения экрана и настроек графики: чем они выше — тем выше влияние видеокарты, и менее заметна разница между более и менее быстрыми ЦПУ.

Раскрывашки же эти факты игнорируют и сводят все к одному простому тезису: «более дорогой и новый процессор — лучше». Но для кого именно лучше — обычно умалчивают. Поэтому, если вы решились на апгрейд видеокарты, не стоит задаться вопросом «а раскроИт ли?» — им и без вас много кто задается.

Ваш вопрос — насколько производительности текущего процессора достаточно для игр, в которые вы планируете играть. Если ответ на него положительный — берите новую видеокарту. Если отрицательный — рассматривайте возможные варианты апгрейда, пусть даже и в рамках нынешней платформы.

Так на что тогда нужно обращать внимание при выборе видеокарты?

1) На ее цену.

Парадоксально, но это одновременно самый очевидный и самый… неоднозначный параметр.  С одной стороны, задумав покупку, вы уже знаете, какую сумму теоретически готовы потратить, и в каких лимитах эта сумма может изменяться, если это необходимо.

С другой стороны, цена не всегда отражает реальную производительность видеокарты. Возможны казусы, когда карта старой и менее производительной модели стоит столько же, сколько более быстрый современный аналог.

Возможны и более любопытные варианты, когда карта, основанная на менее производительном ГПУ, но оснащенная топовым охлаждением и переработанной платой стоит столько же или буквально чуть дешевле, чем более производительные карты с «меньшим уровнем пафоса»:

-14

Именно поэтому никогда не стоит упираться в единственный вариант — всегда могут быть более выгодные альтернативы.

Даже если вам кажется, что выбранный вами вариант оптимален по всем параметрам, даже если его наперебой советуют «интернет-знатоки», даже если вы пересмотрели кучу обзоров именно на эту модель — в реалиях рынка соотношение цены и характеристик может  оказаться не самым выгодным.

-15

Поэтому — всегда выбирайте несколько вариантов, попадающих в ваш исходный бюджет, но также оставляйте небольшой запас для «маневров». Уж поверьте, но 25 тысяч рублей за карту, способную тянуть игры в FullHD на высоких настройках графики, и 27 тысяч рублей за карту, способную тянуть те же игры на максимальных настройках, или с комфортом играть в QuadHD — это очень сомнительная разница в цене.

Обязательно следите за скидками и акциями магазина, а также интересуйтесь сроками выхода новинок — с появлением даже просто новых моделей на чипах текущего поколения ценовая политика вендора может заметно измениться, а на действия одного производителя обязательно отреагируют конкуренты.

Кроме того, не постесняйтесь узнать, сколько стоит на рынке б/у комплектующих ваша нынешняя видеокарта. Не исключено, что ее продажа позволит добавить значительную сумму к бюджету на покупку новой.

2) Производительность.

Этот аспект вполне очевиден, и более того — именно он определяет итоговый выбор. За какую бы цену вы ни выбирали видеокарту — она должна с лихвой отрабатывать каждый вложенный рубль.

Но не стоит оценивать производительность по отзывам и комментариям в стиле «<название_игры> литаит на ультрах!». Их можно написать про какое угодно устройство. Да и как правило, единственное, с чем пользователи могут сравнить свою покупку — это их старая видеокарта, которая может быть старше сразу на несколько поколений. Естественно, это не даст понять, как видеокарта выглядит на фоне прямых конкурентов.

-16

Ваш вариант — прямые сравнительные тестирования, проводимые авторитетными изданиями при участии если не всех, то большинства конкурирующих решений. Ознакомившись с ними, вы будете представлять, насколько выбранная видеокарта быстрее или медленнее ближайших аналогов, а следовательно — сделаете аргументированный выбор.

3) Энергопотребление видеокарты

Безусловно, идеальный сценарий — это если при покупке видеокарты и внезапной нехватке мощности вашего нынешнего блока питания вы просто идете в магазин и приобретаете новый блок.

Но, во-первых, давайте называть вещи своими именами: далеко не у всех из нас бюджеты позволяют купить одновременно два не самых дешевых девайса.

А во-вторых, энергопотребление видеокарт некоторые люди понимают настолько по-своему, что советы приобретать блоки мощностью в 750 ватт под GeForce GTX 1650 Super и Radeon RX 5500 XT в современных интернетах — ни разу не редкость.

В этих условиях задача — купить видеокарту, с которой справится ваш нынешний блок, и с другой стороны — не потратить деньги на новый блок, мощность которого заведомо избыточна для конфигурации с новой видеокартой.

Как это сделать? Довольно просто, и есть два возможных способа.

Первый из них — прочесть обзор на видеокарту от авторитетного источника. Да, нередко в обзорах указывается энергопотребление всей системы, а не отдельно видеокарты — но так получается даже более наглядно. Ведь, если тестовая система на условном Core i9-9900K в разгоне показывает пиковое энергопотребление на уровне 580 ватт, а в игровом режиме ест 300–350 ватт, то ваш компьютер с опять же, условным Core i5-9400F потреблять будет очевидно меньше.

-17

Второй способ — подробно ознакомиться с характеристиками интересующей вас карты. Только не с теми, что напечатаны в таблице со спецификациями, а с теми, что хранятся в самой карте. А точнее — в ее BIOS.

Одна из ключевых характеристик современных видеокарт — лимит энергопотребления. Программное ограничение, обойти которое карта сама по себе не может. Так, если карте назначен лимит в 130 ватт — необходимость блока на 750–800 ватт для нее несколько… сомнительна.

-18

Тут, кстати, следует сделать одну очень важную оговорку. Видеокарта — это лишь одна из частей системы, в которой живут процессор, материнская плата, оперативная память, SSD, жесткие диски и даже корпусные вентиляторы. Все эти «соседи» тоже питаются электричеством, и при работе тоже хотят есть. Поэтому рассчитывать мощность блока питания необходимо исходя из требований не видеокарты, а всей системы в целом.

4) Разъемы дополнительного питания

Этот пункт также касается БП, однако его стоит вынести отдельно.

Современные видеокарты игрового класса в большинстве случаев потребляют больше электричества, чем способен обеспечить слот PCI-e x16, а потому оснащаются разъемами дополнительного питания, соединяющими карту напрямую с БП.

Разъемы эти стандартизированы и могут насчитывать 6 либо 8 контактов.

-19

Но дело в том, что разные версии карт даже одной модели могут использовать разные сочетания этих разъемов:

  • два 6-контактных;
  • один 6- и один 8-контактный;
  • один 8-контактный разъем;
  • два 8-контактных разъема;
  • два 8-контактных и один 6-контактный разъем;
  • три 8-контактных разъема.

Прежде чем выбирать конкретную модель карты, нужно удостовериться, что ваш блок обладает нужным количеством разъемов дополнительного питания для устройств PCI-e. Если их нет, или количество недостаточно — можно воспользоваться переходниками 4-контактных разъемов Molex, но в таком случае их стоит приобрести либо заранее, либо одновременно с покупкой карты.

И да — в последнее время парадоксальная путаница возникает вокруг разъемов 6+2-pin PCI-e на блоках питания. В комментариях можно прочесть много странных и неописуемо диких вещей, но в реальности этот разъем делается разборным как раз для того, чтобы им можно было подключать карты и с 8-, и с 6-контактными колодками.

5) Физические размеры карты

Разные версии карт на одном и том же графическом чипе могут оснащаться разными системами охлаждения, а, следовательно, обладать разной длиной и толщиной.

В то же время, компьютерные корпуса могут допускать установку видеокарт строго определенной длины, а разъемы PCI-e на материнских платах располагаться так, что карты расширения можно расположить только в строго определенной последовательности. Это, конечно, не катастрофа, но вы лично готовы менять ради видеокарты еще и корпус компьютера, или отказываться от привычной и подходящей вам звуковой карты? Если нет, то перед покупкой обязательно изучите, сколько места интересная вам карта занимает в длину, и сколько слотов расширения на материнской плате перекрывает ее система охлаждения:

-20

Возможно, чтобы сохранить нынешний корпус и карты расширения, вам придется выбрать другую, более компактную модель карты. Возможно, она даже будет отличаться более высокими температурами и/или повышенным уровнем шума по сравнению с более массивной моделью, но тут уже вам решать, что более приоритетно. И решать следует заранее, а не после покупки карты.

6) Разъемы для вывода сигнала на монитор

С одной стороны, сильной путаницы разъемы для подключения к монитору не вызывают. С другой — далеко не все карты обладают теми разъемами, которые есть именно на вашем мониторе. И в особенности это касается как раз современных моделей.

Так, разъем VGA канул в неизвестность вместе с видеокартами GeForce серии 900 и Radeon серии 300. Современные видеокарты не поддерживают вывод аналогового сигнала вовсе: ни через нативный разъем VGA, ни через комбинированный DVI-I их на картах текущих поколений просто нет.

-21

Если вы используете монитор, подключаемый исключительно через аналоговый интерфейс, можно воспользоваться конвертерами (например, HDMI-VGA), преобразующими цифровой сигнал в аналоговый. Однако, если быть честным, такое решение — полумера. Гарантировать качество картинки на мониторе ни один подобный переходник не может, так что польза от них сомнительна. Да и стоят они немало, и гораздо выгоднее будет взять эти деньги, продать ваш старый монитор на вторичном рынке, добавить полученную сумму и купить уже другой монитор, поддерживающий цифровые интерфейсы.

К слову, цифровой разъем DVI-D тоже становится исчезающим видом: последние модели видеокарт от него отказываются в пользу HDMI и DisplayPort.

Впрочем, получить «цифру» из «цифры» не в пример проще, и переходники HDMI-DVI стоят гораздо дешевле активных конвертеров. Но, если выбранная вами карта нуждается в переходниках, лучше узнать об этом заранее и купить их одновременно с самой картой, а не ездить в магазин дважды.

7) Эффективность системы охлаждения и акустический комфорт

Этот пункт стоит последним в списке — однако не потому, что он не важен, а потому, что им возможно пожертвовать ради приобретения более производительной видеокарты, либо карты, совместимой по габаритам и разъемам с другим вашим оборудованием.

Но, разумеется, о температурах видеокарты под нагрузкой и уровне издаваемого ей шума забывать не стоит.

Видеокарты референсного дизайна с кулером типа «турбина» покупать не рекомендуется — пусть современные ГПУ и не столь горячи, конструктивным недостатком таких кулеров остается малая площадь поверхности радиатора. И чтобы эффективно снять с него тепло — турбине придется раскручиваться до достаточно высоких скоростей. А выше скорость — больше шума. Тихоходные кулеры вендорского дизайна в этом плане куда предпочтительнее.

-22

Впрочем, и гоняться за самыми топовыми версиями видеокарт сегодня тоже не имеет смысла. Даже если рассматривать карты уровня того же Radeon RX 5700 XT — реальная разница в температурах может оказаться несколько ниже разницы в цене. А разброс по частотам в данном случае легко компенсируется ручной настройкой.

Перед покупкой видеокарты следует внимательно изучить обзоры, в которых показана конструкция установленной системы охлаждения и протестирована ее эффективность. Здесь также желательно сравнение с конкурентами, однако выводы можно сделать и по графикам температур и шума одиночной карты.

Также следует помнить, что восприятие шума у каждого человека индивидуально, и к тому же, сильно зависит от естественного шумового фона в помещении. Ориентируйтесь на следующие цифры:

  • 25–30 децибел — естественный шумовой фон глухой ночью в квартире с закрытыми окнами при отсутствии других источников шума.
  • 40 децибел — тихий разговор.
  • 55–60 децибел — средний уровень шума днем в офисе.

Критерии и варианты выбора

Бюджетные видеокарты начального уровня подойдут для ПК, предназначенных для офисных задач, воспроизведения мультимедийного контента и достаточно старых и нетребовательных игр. К слову, если вы рассматриваете видеокарты для мультимедийного ПК, собранного в компактном корпусе, отдельного внимания заслуживают низкопрофильные карты.

-23

Однако, выбирать их следует с оглядкой на остальные комплектующие. Если у вас относительно старое железо, или же процессор не оснащен встроенной графикой — покупка, безусловно, будет иметь смысл.

Если же ПК только планируется собирать — стоит обратить внимание на центральные процессоры со сравнительно мощной встроенной графикой. Она, помимо прочего, прилагается к ним бесплатно, в отличие от дискретной видеокарты.

Также, если у вас старый монитор с интерфейсом VGA, и менять его по той или иной причине вы не хотите — безусловно, имеет смысл посмотреть видеокарты с нативным разъемом VGA или DVI-I. Подключить к ним такой монитор гораздо проще, чем к современным аналогам.

-24

Однако имейте ввиду, что это в большинстве случаев будут старые и далеко не самые производительные модели. Поэтому, если замена монитора – не ваш путь, стоит купить конвертер сигнала в помощь более современной видеокарте.

-25

Если необходимо больше производительности, но из игр интересуют в первую очередь различные сетевые проекты — можно ограничиться игровыми видеокартами начального уровня. На практике они способны и на большее, чем DOTA и Танки — правда, в более серьезных проектах придется ограничиться средними настройками графики.

-26

Средние настройки и FPS, лишь немного превышающий границу комфорта — не ваш вариант? Обратите внимание на карты, составляющие основную долю среднего ценового сегмента. На практике они способны и на большее, чем дота и танки — правда, в более серьёзных проектах придётся ограничиться средними настройками графики.

На верхней границе среднего ценового сегмента расположились карты, способные поднять настройки в FullHD ближе к максимальным. С ними тоже не имеет смысла замахиваться на более высокие разрешения, но актуальность они сохранят несколько дольше предыдущих вариантов.

Не слишком придирчивы к графике, но берете карту с расчетом не апгрейдить ее в течение нескольких лет? Стоит обратить внимание на карты из нижней границы топового сегмента. Обойдутся они уже дороже предыдущих вариантов, но далеко не в разы. А актуальность сохранят куда на дольше — не исключено, что траты окажутся гораздо меньше, чем в случае покупки среднебюджетной карты сегодня и ее замены на аналог из следующего поколения.

Хотите попробовать новые технологии, играть в разрешениях 2К и 4К с высокими настройками и комфортным FPS, или же вам нужна карта для онлайн-трансляций? Тут уже в дело вступают флагманы с бескомпромиссной ценой и столь же бескомпромиссной производительностью.