Привет! Игровой потенциал компьютера определяется в первую очередь установленной в него видеокартой. А следовательно — к ее выбору нужно подходить не менее ответственно, чем к покупке процессора или материнской платы.
В этой статье я в очередной раз постараюсь рассказать о том, на что действительно стоит обратить внимание при выборе видеокарты, а какие распространенные убеждения на деле являются бесполезными и даже вредными мифами.
В этой статье вы увидите:
1.Что выбрать — Nvidia или AMD?
2.От какой компании купить карту — Gigabyte, Asus или MSI?
3.Нужна игровая видеокарта. Карта с 4 гигабайтами памяти подойдет?(сколько видеопамяти вообще нужно?)
4.Стоит ли выбирать карты с шиной в 256 бит вместо 128 бит?
5.Нужно выбирать видеокарты обязательно с памятью GDDR6?
6.Стоит ли менять материнскую плату, если на ней PCI-e 3.0, а у карты PCI-e 4.0?
7.Трассировка лучей: важна или нет?
8.А что это за DLSS, который фпс повышает?
9.Стоит ли выбирать видеокарту под процессор?
10.Так на что тогда нужно обращать внимание при выборе видеокарты?
11.Критерии и варианты выбора
Что выбрать — Nvidia или AMD?
Nvidia и AMD — это не видеокарты. Это, внезапно, — названия компаний.
Если же вы выбираете видеокарту — то выбирать нужно конкретный продукт за конкретную цену. Ориентироваться следует на его реальные характеристики: стоимость, количество FPS в играх, возможности разгона и получаемый от него прирост производительности.
От какой компании купить карту — Gigabyte, Asus или MSI?
У каждого вендора есть несколько линеек продуктов, нацеленных на бюджетный, средний и высший ценовые сегменты. Причем касается это в том числе и карт, основанных на одном и том же графическом чипе.
Есть карты, отличающиеся от референсного дизайна только наклейкой и комплектом поставки, есть продукты, ориентированные на упрощение и удешевление оригинальной конструкции, но есть и глубоко переработанные устройства, рассчитанные на энтузиастов и оверклокеров.
Соответственно, видеокарты каждого из трех типов будут отличаться разными характеристиками. К примеру, условная видеокарта Inno3D из линейки iChill, с массивным кулером, разработанным компанией Arctic по спецзаказу, всегда будет холоднее, тише и возьмет бо́льшие частоты, нежели условная видеокарта Asus TURBO, использующая для охлаждения референсную турбину. И никакая «репутация бренда» этого никогда не изменит.
Впрочем, не думайте, что это не работает в обратном направлении: видеокарта Asus ROG STRIX всегда будет тише, холоднее и более приспособлена к разгону, чем, к примеру, Palit StormX на том же графическом чипе. А Palit Jetstream или Super Jetstream, в свою очередь, могут ничем не уступать Asus ROG STRIX, но побеждать их ценой…
Нужна игровая видеокарта. Карта с 4 гигабайтами памяти подойдет?
Вопрос можно переиначить следующим образом: «Я хочу купить машину, разгоняющуюся до 100 км/ч за 7 секунд. Хватит для этого машины с багажником объемом в 520 литров?». Что, согласитесь, полный абсурд — объем багажника очевидно не является фактором, влияющим на динамику разгона автомобиля.
Одно из распространенных заблуждений, касающихся видеокарт — то, что их производительность напрямую зависит от объема установленной памяти.
Отчасти это верно, но лишь отчасти. Память, установленная на видеокарте — это и есть своего рода «багажник», в котором хранится весь объем данных, генерируемых и используемых графическим процессором: игровые текстуры, геометрические вершины и буферы. Если этого объема достаточно для конкретной игры — отлично, все будет работать в штатном режиме.
Если же объем памяти мал — могут возникнуть проблемы. На современных платформах под нужды графики начнет выделяться часть оперативной памяти — однако DRR4 медленнее GDDR5 и уж тем более GDDR6, и переход к ее ресурсам может привести к временному падению производительности, что не очень комфортно.
Так сколько же в итоге должно быть набортной памяти? Ее не должно быть много или мало: памяти должно быть достаточно для игры на тех настройках, на которых графический процессор способен выдавать комфортный уровень FPS.
Рассмотрим это на конкретном примере: сцена из встроенного бенчмарка игры Assassin’s Creed: Valhalla, запущенного на Radeon RX 6500 XT с 4 гигабайтами памяти на борту:
В примере слева используется штатный профиль «Высокие настройки». Хотя показатель среднего фпс держится на отметке в 34 кадра, постоянные просадки по 1% и 0,1% редких событий и нестабильный график времени кадра делают игровой процесс на этих настройках графики попросту невозможным. И дело не только в нехватке объема памяти, но и в том, что видеокарта начального уровня не рассчитана на игру на этих настройках графики.
Справа — та же игра и та же видеокарта, однако настройки графики понижены до средних. В этом случае потребление видеопамяти ниже буквально на один гигабайт, но кроме этого существенно снижается и нагрузка на ГПУ. 37 и 49 кадров по редким событиям, 54 и 63 кадра — по показателям минимального и среднего фпс. И абсолютно комфортный геймплей.
Объем памяти — важная характеристика видеокарты, но его нельзя рассматривать в отрыве от производительности ГПУ, игр и настроек графики, которые предполагается получить.
И уж совершенно точно не стоит думать, будто GeForce GT 730 и GeForce GTX 1650 Super при одинаковом объеме памяти в 4 гигабайта позволят выставить одинаковые настройки и получить одинаковую производительность.
Так сколько видеопамяти вообще нужно?
Если мы говорим о современных игровых видеокартах, которые реально способны тянуть игровые новинки на высоких и максимальных настройках как минимум в FullHD — 6 или 8 гигабайт памяти на борту будут обязательны. А для QuadHD и 4К — это и вовсе необходимый минимум, если не понижать настройки до средних. Но если вы не гонитесь за максимальными настройками, или вовсе предпочитаете новинкам старые добрые игры из эпохи до середины 2010-ых годов — и 4 гигабайт вам будет достаточно.
Стоит ли выбирать карты с шиной в 256 бит вместо 128 бит?
Сравнение видеокарт по «ширине» шины памяти — это всего лишь еще одна попытка выбрать из непонятного и обширного комплекса параметров одно простое число. Да, шина «толщиной» в 256 бит может обеспечить большую пропускную способность, чем шина в 128 бит, но сравнивать их можно только если все прочие параметры одинаковы. Разные типы памяти — к примеру, GDDR5 и GDDR6 — обладают совершенно разными скоростями чтения и записи и даже разными диапазонами рабочих частот, что уже делает прямое сравнение бессмысленным.
Но ведь и тут все не так просто! Дело не только в самой памяти, но и в характеристиках ГПУ: каким объемом данных он реально оперирует, и самое главное — насколько эффективно эти данные сжимает.
Metro: Exodus, разрешение экрана — FullHD, настройки графики — высокие, тесселяция включена, эффекты PhysX и Hairworks отключены:
Слева — Radeon RX 6500 XT с шиной всего лишь в 64 бита. Справа — GeForce GTX 1650 со 128-битной шиной. Обе карты используют память стандарта GDDR6.
Как можно видеть по счетчику фпс и показателям редких событий — в реальной игре быстрее оказывается совсем не та карта, которая была «лучше» по цифрам в характеристиках.
Соблазн свести все к простому объяснению «здесь цифры выше — эта карта лучше» понятен. Но на практике пользы от такого объяснения не будет: скорее наоборот, в результате вы купите видеокарту, которая в реальности окажется хуже той, которую можно было бы приобрести за тот же бюджет.
Если вам так уж хочется все упростить, и сравнивать видеокарты только по одному простому параметру — пусть этим параметром будет количество кадров в играх.
Нужно выбирать видеокарты обязательно с памятью GDDR6?
И снова — нет.
Сама по себе память стандарта GDDR6 обеспечивает большую скорость обмена данными при меньшем энергопотреблении по сравнению с GDDR5 — это абсолютный факт. Но, как уже говорилось выше, один параметр не может определять все характеристики видеокарты.
Опять же конкретный пример — Red Dead Redemption II, встроенный бенчмарк. Разрешение экрана — FullHD, настройки графики — средние:
Слева — GeForce GTX 1660, с 6 гигабайтами памяти стандарта GDDR5. Справа — GeForce GTX 1650 Super с 4 гигабайтами памяти стандарта GDDR6.
Быстрее оказывается первая карта: на ее стороне и более мощный ГПУ, и больший объем набортной памяти. Хотя последнее именно здесь не столь важно: бенчмарк задействует лишь чуть более 3.5 гигабайт. Тип набортной памяти может иметь определяющее значение только в том случае, если все прочие параметры видеокарты одинаковы. А такое случается крайне редко.
Стоит ли менять материнскую плату, если на ней PCI-e 3.0, а у карты PCI-e 4.0?
Различные версии интерфейса PCI-e совместимы между собой: видеокарту, разработанную во времена PCI-e 2.0, можно без всяких проблем установить в плату с интерфейсами 3.0 и 4.0. Также и видеокарте с интерфейсом версии 4.0 ничто не запрещает работать в плате со «старой» версией интерфейса.
Оказывать влияние на производительность видеокарты версия интерфейса PCI-e напрямую также не может, даже если рассматривать высокопроизводительные модели, вроде GeForce RTX 3080.
Однако слово «напрямую» в абзаце выше выделено отнюдь неспроста, и косвенное влияние все же имеет место. Скоростной интерфейс важен в том случае, когда потребление видеопамяти превышает объем собственного буфера карты, и она вынуждена использовать часть оперативной памяти в качестве резерва.
Впрочем, есть и редкие исключения, когда влияние оказывает именно пропускная способность интерфейса PCI-e.
Radeon RX 6500XT — единственная пока что видеокарта игрового класса (пусть и начального уровня), использующая всего 4 сигнальных линии PCI-e. В такой конфигурации, как показали исследования, разница в пропускной способности между PCI-e 4.0 и PCI-e 3.0 уже имеет реальное значение.
Таким образом, если вы вдруг услышите советы о том, что при покупке видеокарты процессор с материнской платой тоже нужно обязательно сменить, иначе ничего работать не будет или старый интерфейс «отрежет» до 15% (20, 25, 30 и так далее) производительности видеокарты, знайте: задача этого «советчика» — именно убедить вас сделать еще одну дорогостоящую покупку.
Трассировка лучей: важна или нет?
Тренд последнего времени — внедрение в игры обработки освещения в реальном времени, позволяющей отказаться от предварительной расстановки множества «искусственных» источников света по игровому уровню в пользу глобального освещения. А кроме того — внедряющей более реалистичные эффекты отражения и преломления света от различных типов поверхностей.
В самой технологии как таковой нет ничего плохого. Более того, трудно ожидать революции в графике за счет простого наращивания количества пикселей на экране и мегабайт в текстурах: необходимы именно качественные изменения, и трассировка лучей под это определение вполне подходит.
Проблема заключается несколько в ином.
Трассировка лучей хороша только в том случае, если выбранная вами видеокарта реально способна обеспечивать комфортный фпс в играх со включенными лучами.
Если мы говорим о топовых моделях видеокарт из семейства Radeon RX 6000 и GeForce RTX 3000, то тут, разумеется, оговоркам не место: вы получите комфортный FPS со включенными лучами в любой актуальной игре при разрешении FullHD и QuadHD. В 4К — уже не всегда получится.
Также можно задействовать технологии апскейла DLSS, он поправляет ситуацию, но изображение в данном случае генерируется в меньшем разрешении, а затем растягивается до FullHD, так что итоговое качество картинки может оказаться хуже «полного кадра».
Так стоит ли выбирать видеокарты с поддержкой трассировки лучей?
Если речь об актуальном поколении — вопрос лишен смысла, так как и Radeon RX 6000, и GeForce RTX 3000 ее в любом случае поддерживают. Не факт, что выбранная вами видеокарта обеспечит комфортный фпс со включенными лучами на тех же настройках графики, что и без них — но принципиальная возможность все равно останется.
А что это за DLSS, который фпс повышает?
Алгоритм улучшения качества изображения, поддерживаемый картами GeForce с суффиксом RTX. То есть — для серий 2000 и 3000. Для работы алгоритма требуется наличие у видеокарты тензорных ядер, так что GTX 16** и более ранние поколения, увы, проходят мимо.
Суть алгоритма в получении более качественной картинки из изображения низкого разрешения. Проще говоря — в апскейле.
Да, по факту все гораздо сложнее, и алгоритм имеет самое прямое отношение к ИИ и нейросетям, однако со стороны пользователя работа DLSS выглядит именно так: производительность будет примерно соответствовать разрешению 720p, а качество картинки — примерно соответствовать FullHD. Ну, или оригинальное разрешение FullHD может превратиться в подобие 4К.
Разумеется, основная цель достигается, и количество кадров в секунду примерно соответствует исходному разрешению:
А вот с качеством — не все так очевидно, итоговый результат варьируется от игры к игре и от объекта к объекту. К примеру, мелкие контрастные объекты могут изобиловать артефактами:
С другой стороны, лица и волосы персонажей, особенно если они находятся в статичном положении и на них не накладывается эффект размытия в движении — с DLSS могут выглядеть даже лучше, чем в нативном разрешении со сглаживанием TAA:
К слову о сглаживании — DLSS в некоторых случаях может заменять и его, например — дорисовывая грани у объектов, которые в оригинальном качестве выглядят сильно пикселизированными, а то и вовсе теряются:
С другой стороны, хотя пропадающие в оригинальном разрешении и рассыпающиеся на квадраты щели между досками DLSS действительно дорисовывает, текстуры в этом примере — наоборот становятся менее четкими, а деревянный настил местами начинает походить на рисунок на плоской поверхности.
Пример, кстати, не единственный:
Если обратить внимание на ветку в центре, то можно заметить, что ее края в варианте с DLSS не такие резкие, и на них отсутствуют характерные «лесенки». Но вместе с тем — текстуры цветков заметно теряют в детализации по сравнению с нативным 4К.
Безусловно, это не значит, что технология сама по себе плоха: нельзя создать универсальный инструмент, который будет одинаково хорош во всех задачах. Напротив, появление такой технологии стоит приветствовать: массовый переход к геймингу в нативном разрешении 4К, судя по всему, откладывается как минимум до выхода видеокарт следующего поколения. А если вас интересует не просто высокое разрешение, а еще и реалистичное освещение — то и того дольше. Да и возможность поднять производительность в новых играх при отсутствии более производительных видеокарт и денег на них — это просто отлично!
Минус у DLSS ровно один: это жесткая привязка к технологиям Nvidia и необходимость наличия аппаратных ядер у ГПУ. То есть, если у вас установлена как минимум RTX 2060, а еще лучше — RTX 3060, вы сами сможете включить DLSS и проверить качество картинки в поддерживающих эту технологию играх. А вот с GTX 1650 или GTX 1050, увы, ничего не выйдет.
Стоит ли выбирать видеокарту под процессор?
Нет, видеокарта выбирается под игры — либо под рабочие задачи, которые предполагается решать с ее помощью.
Зависимость же игр от процессора, во-первых, в большинстве случаев, преувеличена, а во-вторых — абсолютно никогда не бывает линейной и не сводится к простой формуле «дороже процессор — больше FPS».
Total War: Three Kingdoms. Игра, довольно требовательная к ресурсам центрального процессора и к тому же использующая преимущества многопотока:
Слева — Intel Core i9-9900KF. Справа — Intel Core i7-9700KF. Оба процессора разогнаны до 5000 МГц, частота кольцевой шины поднята до 4700 МГц, видеокарта RTX 2080 Ti работает в штатном для нее режиме, все прочие условия идентичны. При этом, в случае с Core i7-9700KF FPS в бенчмарке оказывается… выше!
Да, это исключительно частный случай, связанный с тем, что технология Hyper Threading, отличающая Core i9 от Core i7, в играх далеко не всегда работает корректно, и производительность старшей модели ЦПУ при прочих одинаковых условиях оказывается ниже, чем у младшей.
WarThunder, являющийся уже диаметрально противоположным примером, так как движок игры по сей день активно использует не более 2-х ядер процессора:
Слева — снова Core i9-9900KF, но на сей раз — в номинальном для него режиме. 4700 МГц по всем ядрам за счет технологии MCE, 4300 МГц на кольцевой шине.
Справа — уже Core i5-9600KF, разогнанный ровно до тех же параметров. Все прочие характеристики системы идентичны, в качестве видеокарты опять используется RTX 2080 Ti.
Разница в FPS очевидна. В данном случае Core i9 в принципе не может иметь никаких преимуществ над Core i5 — игра попросту не использует «лишние» ядра. А технология Hyper Threading здесь опять ведет себя не лучшим образом, что и позволяет Core i5-9600KF выдавать немного больше кадров в секунду.
У каждой игры свои требования к характеристикам центрального процессора. Так, где-то используется максимально доступное количество ядер и, например, старые процессоры под ту же платформу LGA 2011 могут не только эффективно справляться с игрой, выпущенной на 7 лет позже них самих, но и обеспечивать более комфортный геймплей, чем бюджетные модели под LGA 1200.
Где-то наоборот — количество ядер не имеет значения, важна только тактовая частота и производительность в однопоточной нагрузке. Какие-то игры в силу особенностей движка в принципе мало зависимы от процессора и более требовательны к видеокарте. Да и сама «зависимость» от характеристик процессора в одной и той же игре может меняться со сменой разрешения экрана и настроек графики: чем они выше — тем выше влияние видеокарты, и менее заметна разница между более и менее быстрыми ЦПУ.
Раскрывашки же эти факты игнорируют и сводят все к одному простому тезису: «более дорогой и новый процессор — лучше». Но для кого именно лучше — обычно умалчивают. Поэтому, если вы решились на апгрейд видеокарты, не стоит задаться вопросом «а раскроит ли?» — им и без вас много кто задается.
Ваш вопрос — насколько производительности текущего процессора достаточно для игр, в которые вы планируете играть. Если ответ на него положительный — берите новую видеокарту. Если отрицательный — рассматривайте возможные варианты апгрейда, пусть даже и в рамках нынешней платформы.
Так на что тогда нужно обращать внимание при выборе видеокарты?
1) Цена
Парадоксально, но это одновременно самый очевидный и самый… неоднозначный параметр. С одной стороны, задумав покупку, вы уже знаете, какую сумму теоретически готовы потратить, и в каких лимитах эта сумма может изменяться, если это необходимо.
С другой стороны, цена не всегда отражает реальную производительность видеокарты. Возможны казусы, когда карта старой и менее производительной модели стоит столько же, сколько более быстрый современный аналог.
Возможны и более любопытные варианты, когда карта, основанная на менее производительном ГПУ, но оснащенная топовым охлаждением и переработанной платой стоит столько же или буквально чуть дешевле, чем более производительные карты с «меньшим уровнем пафоса».
Именно поэтому никогда не стоит упираться в единственный вариант — всегда могут быть более выгодные альтернативы.
Даже если вам кажется, что выбранный вами вариант оптимален по всем параметрам, даже если его наперебой советуют «интернет-знатоки», даже если вы пересмотрели кучу обзоров именно на эту модель — в реалиях рынка соотношение цены и характеристик может оказаться не самым выгодным.
Поэтому — всегда выбирайте несколько вариантов, попадающих в ваш исходный бюджет, но также оставляйте небольшой запас для «маневров». Уж поверьте, но 25 тысяч рублей за карту, способную тянуть игры в FullHD на высоких настройках графики, и 27 тысяч рублей за карту, способную тянуть те же игры на максимальных настройках, или с комфортом играть в QuadHD — это очень сомнительная разница в цене.
Обязательно следите за скидками и акциями магазина, а также интересуйтесь сроками выхода новинок — с появлением даже просто новых моделей на чипах текущего поколения ценовая политика вендора может заметно измениться, а на действия одного производителя обязательно отреагируют конкуренты.
Кроме того, не постесняйтесь узнать, сколько стоит на рынке б/у комплектующих ваша нынешняя видеокарта. Не исключено, что ее продажа позволит добавить значительную сумму к бюджету на покупку новой.
2) Производительность
Этот аспект вполне очевиден, и более того — именно он определяет итоговый выбор. За какую бы цену вы ни выбирали видеокарту — она должна с лихвой отрабатывать каждый вложенный рубль.
Но не стоит оценивать производительность по отзывам и комментариям в стиле «<название_игры> летает на ультрах!». Их можно написать про какое угодно устройство. Да и как правило, единственное, с чем пользователи могут сравнить свою покупку — это их старая видеокарта, которая может быть старше сразу на несколько поколений. Естественно, это не даст понять, как видеокарта выглядит на фоне прямых конкурентов.
Ваш вариант — прямые сравнительные тестирования, проводимые авторитетными изданиями при участии если не всех, то большинства конкурирующих решений. Ознакомившись с ними, вы будете представлять, насколько выбранная видеокарта быстрее или медленнее ближайших аналогов, а следовательно — сделаете аргументированный выбор.
3) Энергопотребление видеокарты
Безусловно, идеальный сценарий — это если при покупке видеокарты и внезапной нехватке мощности вашего нынешнего блока питания вы просто идете в магазин и приобретаете новый блок.
Но, во-первых, далеко не у всех из нас бюджеты позволяют купить одновременно два не самых дешевых девайса.
А во-вторых, энергопотребление видеокарт некоторые люди понимают настолько по-своему, что советы приобретать блоки мощностью в 750 ватт под GeForce GTX 1650 Super в современном интернете — ни разу не редкость.
В этих условиях задача — купить видеокарту, с которой справится ваш нынешний блок, и с другой стороны — не потратить деньги на новый блок, мощность которого заведомо избыточна для конфигурации с новой видеокартой.
Как это сделать? Довольно просто, и есть два возможных способа.
Первый из них — прочесть обзор на видеокарту от авторитетного источника. Да, нередко в обзорах указывается энергопотребление всей системы, а не отдельно видеокарты — но так получается даже более наглядно. Ведь, если тестовая система на условном Core i9-9900K в разгоне показывает пиковое энергопотребление на уровне 580 ватт, а в игровом режиме ест 300–350 ватт, то ваш компьютер с опять же, условным Core i5-9400F потреблять будет очевидно меньше.
Второй способ — подробно ознакомиться с характеристиками интересующей вас карты. Только не с теми, что напечатаны в таблице со спецификациями, а с теми, что хранятся в самой карте. А точнее — в ее BIOS.
Одна из ключевых характеристик современных видеокарт — лимит энергопотребления. Программное ограничение, обойти которое карта сама по себе не может. Так, если карте назначен лимит в 130 ватт — необходимость блока на 750–800 ватт для нее несколько… сомнительна.
Тут, кстати, следует сделать одну очень важную оговорку. Видеокарта — это лишь одна из частей системы, в которой живут процессор, материнская плата, оперативная память, SSD, жесткие диски и даже корпусные вентиляторы. Все эти «соседи» тоже питаются электричеством, и при работе тоже хотят есть. Поэтому рассчитывать мощность блока питания необходимо исходя из требований не видеокарты, а всей системы в целом.
4) Разъемы дополнительного питания
Этот пункт также касается БП, однако его стоит вынести отдельно.
Современные видеокарты игрового класса в большинстве случаев потребляют больше электричества, чем способен обеспечить слот PCI-e x16, а потому оснащаются разъемами дополнительного питания, соединяющими карту напрямую с БП.
Разъемы эти стандартизированы и могут насчитывать 6 либо 8 контактов.
Но дело в том, что разные версии карт даже одной модели могут использовать разные сочетания этих разъемов:
- два 6-контактных;
- один 6- и один 8-контактный;
- один 8-контактный разъем;
- два 8-контактных разъема;
- два 8-контактных и один 6-контактный разъем;
- три 8-контактных разъема.
Прежде чем выбирать конкретную модель карты, нужно удостовериться, что ваш блок обладает нужным количеством разъемов дополнительного питания для устройств PCI-e. Если их нет, или количество недостаточно — можно воспользоваться переходниками 4-контактных разъемов Molex, но в таком случае их стоит приобрести либо заранее, либо одновременно с покупкой карты.
И да — в последнее время парадоксальная путаница возникает вокруг разъемов 6+2-pin PCI-e на блоках питания. В комментариях можно прочесть много странных и неописуемо диких вещей, но в реальности этот разъем делается разборным как раз для того, чтобы им можно было подключать карты и с 8-, и с 6-контактными колодками.
5) Физические размеры карты
Разные версии карт на одном и том же графическом чипе могут оснащаться разными системами охлаждения, а, следовательно, обладать разной длиной и толщиной.
В то же время, компьютерные корпуса могут допускать установку видеокарт строго определенной длины, а разъемы PCI-e на материнских платах располагаться так, что карты расширения можно расположить только в строго определенной последовательности. Это, конечно, не катастрофа, но вы лично готовы менять ради видеокарты еще и корпус компьютера, или отказываться от привычной и подходящей вам звуковой карты? Если нет, то перед покупкой обязательно изучите, сколько места интересная вам карта занимает в длину, и сколько слотов расширения на материнской плате перекрывает ее система охлаждения:
Возможно, чтобы сохранить нынешний корпус и карты расширения, вам придется выбрать другую, более компактную модель карты. Возможно, она даже будет отличаться более высокими температурами и/или повышенным уровнем шума по сравнению с более массивной моделью, но тут уже вам решать, что более приоритетно. И решать следует заранее, а не после покупки карты.
6) Разъемы для вывода
С одной стороны, сильной путаницы разъемы для подключения к монитору не вызывают. С другой — далеко не все карты обладают теми разъемами, которые есть именно на вашем мониторе. И в особенности это касается как раз современных моделей.
Так, разъем VGA канул в неизвестность вместе с видеокартами GeForce серии 900 и Radeon серии 300. Современные видеокарты не поддерживают вывод аналогового сигнала вовсе: ни через нативный разъем VGA, ни через комбинированный DVI-I их на картах текущих поколений просто нет.
Если вы используете монитор, подключаемый исключительно через аналоговый интерфейс, можно воспользоваться конвертерами (например, HDMI-VGA), преобразующими цифровой сигнал в аналоговый. Однако, если быть честным, такое решение — полумера. Гарантировать качество картинки на мониторе ни один подобный переходник не может, так что польза от них сомнительна. Да и стоят они немало, и гораздо выгоднее будет взять эти деньги, продать ваш старый монитор на вторичном рынке, добавить полученную сумму и купить уже другой монитор, поддерживающий цифровые интерфейсы.
К слову, цифровой разъем DVI-D тоже становится исчезающим видом: последние модели видеокарт от него отказываются в пользу HDMI и DisplayPort.
Впрочем, получить «цифру» из «цифры» не в пример проще, и переходники HDMI-DVI стоят гораздо дешевле активных конвертеров. Но, если выбранная вами карта нуждается в переходниках, лучше узнать об этом заранее и купить их одновременно с самой картой, а не ездить в магазин дважды.
7) Эффективность системы охлаждения и акустический комфорт
Этот пункт стоит последним в списке — однако не потому, что он не важен, а потому, что им возможно пожертвовать ради приобретения более производительной видеокарты, либо карты, совместимой по габаритам и разъемам с другим вашим оборудованием.
Но, разумеется, о температурах видеокарты под нагрузкой и уровне издаваемого ей шума забывать не стоит.
Видеокарты референсного дизайна с кулером типа «турбина» покупать не рекомендуется — пусть современные ГПУ и не столь горячи, конструктивным недостатком таких кулеров остается малая площадь поверхности радиатора. И чтобы эффективно снять с него тепло — турбине придется раскручиваться до достаточно высоких скоростей. А выше скорость — больше шума. Тихоходные кулеры вендорского дизайна в этом плане куда предпочтительнее.
Впрочем, и гоняться за самыми топовыми версиями видеокарт сегодня тоже не имеет смысла.
Перед покупкой видеокарты следует внимательно изучить обзоры, в которых показана конструкция установленной системы охлаждения и протестирована ее эффективность. Здесь также желательно сравнение с конкурентами, однако выводы можно сделать и по графикам температур и шума одиночной карты.
Также следует помнить, что восприятие шума у каждого человека индивидуально, и к тому же, сильно зависит от естественного шумового фона в помещении. Ориентируйтесь на следующие цифры:
- 25–30 децибел — естественный шумовой фон глухой ночью в квартире с закрытыми окнами при отсутствии других источников шума.
- 40 децибел — тихий разговор.
- 55–60 децибел — средний уровень шума днем в офисе.
Критерии и варианты выбора
Видеокарты начального уровня подойдут для офисных задач, воспроизведения мультимедийного контента и достаточно старых и нетребовательных игр. Если рассматривать видеокарты для мультимедийного ПК, собранного в компактном корпусе, отдельного внимания заслуживают низкопрофильные карты.
Однако, выбирать их следует с оглядкой на остальные комплектующие. Если у вас относительно старое железо, или же процессор не оснащен встроенной графикой — покупка, безусловно, будет иметь смысл.
Если же ПК только планируется собирать — стоит обратить внимание на центральные процессоры со сравнительно мощной встроенной графикой.
Также, если у вас старый монитор с интерфейсом VGA, и менять его по той или иной причине вы не хотите — безусловно, имеет смысл посмотреть видеокарты с нативным разъемом VGA или DVI-I. Подключить к ним такой монитор гораздо проще, чем к современным аналогам.
Однако имейте ввиду, что это в большинстве случаев будут старые и далеко не самые производительные модели. Поэтому, если замена монитора — не ваш путь, стоит купить конвертер сигнала в помощь более современной видеокарте.
Если необходимо больше производительности, но из игр интересуют в первую очередь различные сетевые проекты — можно ограничиться игровыми видеокартами начального уровня. На практике они способны и на большее, чем DOTA и Танки — правда, в более серьезных проектах придется ограничиться средними настройками графики.
Средние настройки и FPS, лишь немного превышающий границу комфорта — не ваш вариант? Обратите внимание на карты, составляющие основную долю среднего ценового сегмента. На практике они способны и на большее, чем дота и танки — правда, в более серьёзных проектах придется ограничиться средними настройками графики.
На верхней границе среднего ценового сегмента расположились карты, способные поднять настройки в FullHD ближе к максимальным. С ними тоже не имеет смысла замахиваться на более высокие разрешения, но актуальность они сохранят несколько дольше предыдущих вариантов.
Не слишком придирчивы к графике, но берете карту с расчетом не апгрейдить ее в течение нескольких лет? Стоит обратить внимание на карты из нижней границы топового сегмента. Обойдутся они уже дороже предыдущих вариантов, но далеко не в разы. А актуальность сохранят куда на дольше — не исключено, что траты окажутся гораздо меньше, чем в случае покупки среднебюджетной карты сегодня и ее замены на аналог из следующего поколения.
Хотите попробовать новые технологии, играть в разрешениях 2К и 4К с высокими настройками и комфортным FPS, или же вам нужна карта для стримов? Тут уже в дело вступают флагманы с бескомпромиссной ценой и столь же бескомпромиссной производительностью.
Спасибо, что прочитали эту статью до конца! Подпишись на канал и не забудь поставить лайк, ведь это очень помогает продвижению канала.