Несмотря на распространение информации в современном мире до сих пор очень популярны мифы о компьютерном железе. Большинство из них покажутся вам логичными, однако они либо не применимы в полной мере, либо совсем, а потому - самое время их разрушить!
1. Чем больше видеопамяти в видеокарте, тем она быстрее.
С одной стороны, в рамках одного поколения, чем производительнее видеокарта, тем больше у нее видеопамяти, и это логично, но видеопамяти - ничто иное как буфер, в котором находится информация. То есть напрямую на производительность видеокарты влияет именно ее пропускная способность, да и то - не слишком критично. Объем видеопамяти лишь показывает, какой объем информации можно "погрузить" в видеокарту, этакая "очень быстрая оперативная память с конкретной задачей". В прочем, в интегрированных решениях именно оперативная память становится видеопамятью, и вот тут интересно хотя бы, потому что intel hd 4000 может брать из оперативки по несколько ГБ видеопамяти. Станет ли она от этого быстрее? Нет.
Также очень наглядное сравнение можно привести между RX588 (8ГБ) и GTX 1080 (8ГБ). По логике этого мифа, видеокарты должны быть примерно равны по производительности. На практике же RX 580 выступает на уровне 1060, обладающей 6 ГБ видеопамяти. Примеров можно привести кучу, но суть я объяснил.
Интересный факт: объемом оперативной памяти часто козыряют горе-продавцы, преподнося офисные затычки как "игровые видеокарты" только по объему видеопамяти. В действительности же из-за слабого GPU с вас поимеют выгоду, а поиграть на своих 2 или даже 4 ГБ увы, не получится. Такой объем памяти офисным видеокартам нужен для работы с несколькими мониторами в высоком разрешении.
2. Связка из двух видеокарт ровно вдвое быстрее одной видеокарты из этой связки.
Миф сразу по нескольким пунктам, даже имеет свой "под-миф", но обо всем по порядку.
Связка из двух видеокарт будет быстрее одной только в играх, оптимизированных под две видеокарты, в остальных же случаях задействована будет только одна видеокарта, вторая будет простаивать.
Вообще использование обоих видеокарт для отрисовки не единственный вариант. Так например вторая видеокарта может использоваться для расчета PhysX, при таком использовании не обязательно даже объединять карты в SLI.
Плюсом к тому, на 2 графических процессора останется одна видеопамять, что и являлось под-мифом:
3. У двух видеокарт в связке суммируется память.
Миф особенно любят использовать продавцы двухчиповых видеокарт, указывая в характеристиках общий объем памяти. В действительности же видеопамять у двух видеокарт, так же как и у двух чипов на одной плате - НЕ СУММИРУЕТСЯ. В случае с КроссФайром (а в случае с ним это тоже применимо) это означает, что использоваться будет объем памяти, который имеет карта с наименьшим объемом в системе. К примеру, объединив в CrossFire две видеокарты с объемом памяти 2 и 4 Гб, вся связка будет использовать только 2 Гб, то есть треть суммарного объема. Вероятно, и с видеокартами Nvidia это работало бы, но в SLI можно поставить только две одинаковые модели видеокарты, с разницей разве что в производителе. Да и то, частоты подстроятся под самую медленную видеокарту.
4. "раскрытие" видеокарты существует
ЗАБУДЬТЕ НАФИГ ТЕРМИН "РАСКРЫТИЕ". То, что видеокарта не загружена на 100% означает только то, что есть запас для сложных сцен, то есть при взрыве, например, ФПС останется таким же.
В то же время, раскрыватели отчаянно пытаются и дальше что-то там раскрывать. Сам же я не буду ничего говорить по этому поводу, просто вбейте в Ютубе "сталкаш" и найдите у него ролик (смотрел еще во время его выхода, поэтому не помню названия). В любом случае нет такого понятия "раскрытие". В видео Сталкаш привел пример, когда Core 2 Duo загрузил 1070 на 100%, НО ЭТО НЕ ЗНАЧИТ, ЧТО ТАКАЯ СВЯЗКА БУДЕТ ОПТИМАЛЬНОЙ, И да, нагрузка видеокарты на 100% означает только то, что в сложных сценах просядет ФПС, так как все доступные ресурсы графического процессора задействованы и... Все.
На этом все. Да, эти мифы могут показаться кому-то уже совсем не мифами, но я постоянно сталкиваюсь с людьми, которые считают главной характеристикой видеокарты ее видеопамять, а уж когда такие собирают компьютер... В общем, конструктивная критика, предложения и мифы, которые я не упомянул - в комментарии, ну а вам спасибо за прочтение и до скорого!
Читайте также:
Подписывайся, чтобы не пропустить новые интересные статьи!