Доброго времени, господа. Я тут вспомнил, что старые топовые видеокарты, ну чисто технически - до сих пор довольно мощные ребята. Если посмотреть именно на характеристики (число ядер, растровых блоков и прочее-прочее), то они не то, чтобы сильно уступают современным бюджетным видеокартам.
Но характеристики и тесты - это одно, а что насчет игр? Сегодня посмотрим, на что способны старые видеокарты в современных играх, а также разберемся с причинами "утечки мощности".
GTX 680 (2012)
680-я карта - самая старая из видеокарт, где отвал ГП перестал быть проблемой каждой второй карты. С 200-й по 500-ю серии, Nvidia ставила на чип теплораспределительную крышку, под которой была термопаста. Со временем термопаста высыхала, и если владелец каким-то образом нарушал ее слой (а сделать это проще, чем вы думаете), карта начинала перегреваться с последующим отвалом ГП.
Ну а 680-я, мало того, что была очень мощной на свое время, так еще и имела редкую версию с 4-гб видеопамяти. Однако рассматривать ее не совсем правильно (они реально редкие), так что будем оценивать возможности обычной 2-Гб версии.
В AAA-проекты поиграть, формально, можно, но это будет больно: самые минимальные настройки и 720p-разрешение. Так что для новых игр 680 рассматривать не стоит (как будто кто-то собирался).
GTX 780Ti (2014)
Вот это - уже интереснее. Дело в том, что 780Ti на момент выхода, просто сносила крышу производительностью. Скачок был примерно такой же, как между 2000 и 3000-й сериями RTX. GTX 780Ti оказалась настолько быстрой, что стала минимальной видеокартой, которую разработчики считают приемлемой для запуска Cyberpunk 2077.
Ну и действительно - хоть и на низких настройках, однако 780Ti справляется с современными играми в Full-HD разрешении. Для тестов я беру только киберпанк и RDR2, так как считаю их показательными. Понятное дело, что требовать от этих видеокарт хорошего FPS в каком-нибудь Alan Wake - не очень реалистичная затея.
GTX 980Ti (2015)
И 980Ti была удачной видеокартой: наконец-то нормальный объем видеопамяти, как для флагмана, приправленный существенной прибавкой производительности (по сравнению с 780Ti). Да еще и драйвера перестали обновляться совсем недавно, так что от 980Ti можно ожидать неплохих результатов в современных играх:
Да, сам в шоке. Я-то думал, что старые карты его даже запустить не могут, а оно - вон как... Ну, аве программистам-оптимизаторам, от 9-летней видеокарты обычно ожидаешь меньшего. Однако кое-что мне не дает покоя...
Подождите-ка, а где произвоидтельность?
Я помню, когда выходили Pascal'и, и помню, как люди восторгались 1080Ti. Она была примерно на треть быстрее предыдущего топа, но когда я сам сидел на 1080Ti, то спокойно играл в киберпанк на ультра-настройках в 2К-разрешении с FSR ультра-качество. Да и получается, что 980Ti, которая на выходе была где-то на четверть мощнее 780Ti, в играх рвет ее чуть ли не вдвое.
Почему старые видеокарты теряют производительность? Причин много, есть как более значительные, так и менее.
- Самая "страшная" по версии сообщества компьютерщиков - это замедление старых самой Nvidia через новые драйвера. Ну, ради бога - не обновляйте драйвера и не играйте в новые игры - никто вам, в таком случае, карту не замедлит. В новых драйверах быть причины падения производительности старых карт, но падение это не критичное - 3-5% по сравнению с бородатой версией в аналогичном сценарии;
- В старом графическом процессоре могут быть не реализованы какие-нибудь технологии, которые нужны игре для работы. Из-за этого она может работать "обходными путями", то есть эмулируя или игнорируя, что дольше и фу-фу-фу;
- Также на старых видеокартах намного меньше памяти. Прикол той же 1080Ti, точнее, причина, по которой ей все еще можно пользоваться - у нее просто тонна быстрой видеопамяти. Поэтому только на 980Ti в этом тесте удалось увеличить настройки графики - потому что даже на минимальных настройках, киберпанк кушает 2.5 гигабайта видеопамяти.
Это, естественно, не все причины, но самая важная, как по мне - вторая. Именно отсутствие оптимизации под старое железо, приводит к тому, что в новых играх, старые видеокарты показывают себя довольно грустно. Было довольно занятное исследование у оверклокеров: они сравнили несколько поколений процессоров и видеокарт в Crysis, и вы не поверите:
В старой игре, разница между GTX 980Ti и 1080Ti - всего 15%. Разница между GTX 680 (в тестах оверов она показала около 40 кадров) и 980Ti в Crysis - порядка трети. А в новых играх, типа RDR2 или Cyberpunk - почти пятикратная. Так что именно отсутствие оптимизации под старое железо, я бы назвал главной проблемой "утечки производительности".
Заодно и ответили на вопрос - стоит ли брать древнюю топовую видеокарту за мало денег в свой компьютер. Ответ - нет, не стоит. Лучше посмотреть что-то НЕ доисторическое, типа Radeon 5700XT, GTX 1080Ti (хотя ей остался всего год до "третьей свежести"), или RTX 2060 Super. Динозавров лучше не трогать, либо если и брать, то только под старые игры.
На этом у меня все. Если было интересно - не забудь поставить лайк и подписаться на канал. Увидимся!
Также подпишись на телеграм (там IT-новости) и новостной канал (там новости выходят чуть позже, зато чуть побольше).