Наверняка вы слышали, что в видеокарте есть какая-то шина, и чем она шире – тем лучше. Что чем больше памяти – тем карта быстрее, и не дай бог купить дешевое исполнение. Часто после этого люди покупают какую-нибудь RTX 4060 Ti на 16 гигабайт в самом крутом исполнении и с удивленным лицом смотрят на 15–20 кадров в секунду.
Да, если выбирать видеокарту, исходя из «мифов», то ничего хорошего не выйдет. Поведать про мифы вызвался Игорь Позняев, автор канала «Блог системного администратора». Давайте смотреть – чем ТОЧНО не стоит руководствоваться при выборе видеокарты.
Миф 1. Характеристики чипа о чем-то говорят
Это в какой-то степени справедливо для процессоров, где можно сделать выводы о его производительности, если знать характеристики чипа (объем кэш-памяти, количество ядер и так далее). С видеокартами так не получится, так как их задачи слишком отличаются от задач центрального процессора, и, если простым языком, нагрузка на чип у видеокарты куда менее равномерная.
Это значит, что в некоторых приложениях улучшенные блоки будут давать куда больше производительности, чем ядра. Например, в задачах нейронного обучения видеокарта с 512 CUDA-ядрами, но с наличием тензорных ядер, окажется быстрее видеокарты с 5–6 тысячами CUDA-ядер, но без тензорных ядер. Иными словами, графический процессор надо выбирать не по принципу «больше ядер = лучше», а исходя из тестов в ваших задачах.
Посмотреть их можно в интернете, желательно сравнивать несколько моделей видеокарт друг с другом в конкретных приложениях. Удивительно, но видеокарта, характеристики которой «на бумаге» лучше в 2–3 раза, может выдавать меньше производительности, чем более новая, хоть и слабая видеокарта.
Миф 2. Видеопамяти много не бывает
Один из самых старых и живучих мифов, который предлагает измерять производительность видеокарты по ее объему видеопамяти. Это неправильно, так как видеопамять и графический процессор – два раздельных узла, и, например, RTX 4060 Ti 8Gb и ее 16-гигабайтная версия по производительности практически не отличаются.
Больший объем памяти даст прирост производительности только в том случае, если версии с меньшим объемом его не хватает, что довольно редко (обычно ограничивающим фактором становится сам видеочип), да и видеокарты-затычки с большим объемом памяти (например, GT 1030 на 4 Гб) игровыми не становятся.
Память – важный параметр, но смотреть надо не только на нее. Она может стать ограничивающим фактором (если ее мало), но о производительности видеокарты объем памяти ничего не говорит. Лучше посмотреть на ее пропускную способность, которая действительно может влиять на производительность.
Миф 3. Профессиональные видеокарты лучше игровых
Этот миф родился из-за цены профессиональных ускорителей, которые нередко стоят в 4–5 раз дороже, чем их «игровая» версия. Логично предположить, что и ФПС в играх они должны выдавать больше, или как-то улучшать картинку, но это не совсем так. Поиграть на профессиональной видеокарте, конечно, получится, только она выдаст чуть меньше ФПС, чем ее игровая версия.
Эти видеокарты (Nvidia Quadro или AMD Pro) вообще не предназначены для игр. Они построены на базе обычных графических процессоров, но в их полной конфигурации – с включенными FP-64 блоками, которые у игровых видеокарт отключены. Кроме того, они производятся одним вендором (для круглосуточной поддержки и быстрого решения проблем), имеют заниженные частоты и в 2–3 раза больше видеопамяти, чем у игровых аналогов (память профессиональных видеокарт еще и необычная – она поддерживает ECC, то есть функцию коррекции ошибок).
Всё это сильно ускоряет работу в проф. приложениях, когда нужно, например, спроектировать вертолет. Вот только играм все эти блоки, увеличенный объем памяти и наличие коррекции ошибок не нужно. Им нужна высокая производительность обычных FP32 ядер, блоков текстурирования и растеризации, которые у профессиональных видеокарт работают на сниженных частотах.
Миф 4. Игровые видеокарты не подходят для работы
Да, в обратную сторону это тоже работает. Многие думают, что для работы в фото- или видеоредакторах обязательно нужна профессиональная видеокарта, она же «профессиональная». Как я уже говорил, отличие проф. карты от игровой – разблокированные функции, которые направлены не столько для ускорения расчетов, сколько на их безошибочность и точность, следовательно, прирост производительности от профессиональной видеокарты будет разве что в системах автоматического проектирования или в тех задачах, где нужна высокая точность (так как у игровых видеокарт блоки FP-32, как правило, урезаются в 8 раз по отношению к блокам FP-64).
А фото- или видеоредакторы, или программы для дизайна, для рисования, в общем – почти любая программа, которую вы используете для работы, не нуждается в этих блоках и не загружает блоки вычисления с плавающей запятой. Скажу больше: видеокарта почти во всех этих приложениях используется ограниченно, и на производительность влияет не столько ее мощность, сколько факт наличия отдельной видеокарты в системе.
Так что для условного видеомонтажа или работы в Фотошопе профессиональная видеокарта не нужна, не нужна им и флагманская модель игровой видеокарты. Достаточно будет бюджетной игровой видеокарты.
Миф 5. Чем дороже версия видеокарты – тем лучше
У видеокарт есть разные исполнения, например, какая-нибудь дешевая двухвентиляторная RTX 4060, которая стоит рядом с суперкрутой трехвентиляторной и светящейся, но тоже RTX 4060, явно вызывает вопросы в духе «а не опасно ли брать дешевую версию»? Не опасно! Но почему тогда существуют дорогие версии?
Ответить на этот вопрос можно в духе «у машин есть комплектации – у видеокарт, соответственно, тоже». Если какой-то вендор захотел выделиться, он сделал свою карту круче, но и дороже. На плате такой карты будет распаяно больше фаз питания, будет установлено более крупное охлаждение, но на производительности это не сказывается почти никак – в лучшем случае дает вам возможность чуть сильнее разогнать видеочип, в чем сейчас не так много смысла.
Касаемо надежности – не беспокойтесь, дешевые версии видеокарт тоже производятся с запасом по прочности компонентов на плате, поэтому никакой необходимости в покупке дорогой версии видеокарты нет. С другой стороны, ничего плохого в этом тоже нет, так что если вы сознательно хотите какой-нибудь Strix вместо Dual – почему нет?
На какие параметры действительно нужно смотреть?
Если так подумать, то выбор видеокарты – далеко не простая затея, как, например, выбор процессора. Но если на всё вышеперечисленное смотреть не стоит, то как ее выбрать? На какие параметры действительно стоит смотреть?
Для начала отметаем старые видеокарты, которые до сих пор продаются. Смотрим в сторону или актуального, или предыдущего поколения, ибо чем старше видеокарта – тем сильнее ее технологическое отставание по сравнению с новыми решениями.
Дальше смотрим поддержку технологий – разного рода «умные сглаживания», генерация кадров в играх и реализация трассировки лучей.
Ну а сравнить производительность видеокарт в реальных задачах можно, только посмотрев их тесты. Они не на 100% объективные (так как везде видеокарту не протестировать), однако дают понимание, как конкретная модель видеокарты ведет себя в конкретных играх.