Одна из популярнейших тем последних месяцев - "проклятая НВидиа опять зажала память на новых картах". Определенный смысл в данных обвинениях имеется. Но, чтобы говорить "8 гигов для 1080р уже очень мало", нужно иметь подтверждение своим словам. И вот тут уже появляются проблемы. Я не буду обращать внимание на бестолковых комментаторов, которые, словно попугаи просто повторяют слова, не понимая их смысла. Что с них брать? Поколение Тик-Тока...
Но и адекватные фанаты АМД также срываются в голословное:
И ведь человек отлично знает, что так сравнивать нельзя! Начнем с того, что карты от АМД и НВидиа вообще имеют разную производительность. А кроме того, просто по-разному работают с памятью. Поэтому интерпретировать данные от "красной" карты на "зеленую", нельзя. Тем более, что сами АМД-фанаты постоянно трещат о том, что "НВидиа постоянно мухлюет с качеством изображения".
Значит, сравнивать надо на картах от одной компании. Людей, которые имеют сразу две карты, не так и много. И среди них желающих на такие эксперименты, вообще есть ли...
Ладно, допустим, что для многих современных игр 8 гигов видеопамяти для 1080р недостаточно. Просто сделаем это аксиомой (т.е. без доказательно). Но тогда имеет место следующий вывод: все карты, имеющие еще меньше видеопамяти, также будут испытывать ее дефицит. Пока нет никаких противоречий. Тогда я могу делать умозаключение, что все видеокарты, близкие по производительности к моей GTX 1070 и, имеющие меньшее количество видеопамяти, будут в таком аспекте проигрывать. Что за карты? Это практически такие же по производительности GTX 1660TI/1660 Super и более мощная (но не критично) RTX 2060. Среди моих знакомых нет обладателей таких видеокарт. Поэтому обратимся к "блохерам" с Ютьюба. Тем более, что неофиты любят давать на их "тесты" ссылки. Я искал тесты с GTX 1070 и GTX 1660 Super или GTX 1660TI в игре Hogwarts Legacy. Почему она? Просто аспект потребления видеопамяти в ней, я изучил очень хорошо.
Нужных роликов, где хоть имеется намек на настройки или тестовый прогон почти нет. Вот лучший из них. Сразу переходите к таймингу 11.40. Что там мы увидим? Что GTX 1070 и GTX 1660 Super показывают практически одинаковую производительность.
Хотя потребление видеопамяти отличается на 1 Гб, что довольно много. Значит памяти хватает? Не факт. Это просто "кривой тест". Он вообще ничего не показывает.
Поясняю.
Вот такие у меня игровые настройки в Hogwarts Legacy:
Причем, включен режим FSR 2.0 в пресете "качество". Сразу после запуска игры имеем следующее:
После беготни и полетов в течении 15 минут имеем уже несколько другой результат:
Потребление видеопамяти выросло с 3,8 Гб до почти 6,8 Гб. Это очень много. Играя примерно по полтора часа подряд, я потребление выше 7,3 Гб не видел. Но я не могу сказать, чем забита в такой момент память: нужным или "мусором". И никто не может. Поэтому всякие высказывания типа: "играю в игру А и там потребление почти 12 Гигов", можно не воспринимать всерьез. Это просто значение занятой видеопамяти, но не показатель того, что игре надо именно 12 Гб!
Есть люди, которые говорят, что: "при нехватке видеопамяти будет "непрорисовка". Это очень спорное заявление. И полностью зависит от конкретной игры.
Вот вам пример "непрорисовки" в Tiny Tina’s Wonderlands:
Но игра находится на жестком диске. И уже через несколько секунд, мы имеем нормальное изображение:
Это пример типичной кривой оптимизации в игре.
Но есть в моей "коллекции" и случай, года "непрорисовка" имеет место. Игра Steelrising, настройки следующие:
При средней детализации текстур имеем такую картину:
Если же попытаться выкрутить детализацию текстур на максимум, то игра потребует 12 Гб видеопамяти:
Можно это предупреждение проигнорировать и применить настройки. Но результат будет таким:
Даже через 30 секунд, картина не изменится (хотя игра находится на ССД накопителе), текстуры не прогрузились...
Но таких случаев ( игра к тому же просто кривая) не так и много. Как же можно узнать: на самом деле игре требуется 8 Гб видеопамяти или нет?
В идеале - тест на одинаковых картах с разным объемом памяти. Просто смотреть на текущий фпс и просадки. Такие карты и сейчас имеются. Допустим, RTX 2060 с 6 и 12 Гб набортной памяти. Карты есть, тестов нормальных практически нет.
Есть и другой способ. Более замороченный, но и более верный. Для этого необходимо иметь, пусть и разные, но одного поколения, карты с разным объемом видеопамяти. К моей GTX 1070 отлично бы подошли GTX 1060 (6 Гб) и GTX 1080TI. Но таковых не имеется. Поэтому принцип тестирования покажу на GT 1030...
Естественно, что карты уж сильно разные по производительности. Но обе из поколения Паскаль, значит работа с памятью осуществляется схожим образом. Алгоритмы сжатия должны быть идентичными. Вот и проверим, как на GT 1030 будет сказываться нехватка видеопамяти. GTX 1070 тут просто выступает референсной моделью. В данном случае, разница в процессорах и оперативной памяти не играет никакой роли, поэтому на сей счет можете не строчить комментарии.
Тестовые системы.
1. "тестовая"
Процессор: i5-3570K (4300 МГц)
Оперативная память: 12 Гб (1600 МГц)
Видеокарта: GT 1030 (2 Гб)
Операционная система: Windows 10
2. "эталонная"
Процессор: i7-8700T
Оперативная память: 16 Гб (2666 МГц)
Видеокарта: GTX 1070 (8 Гб)
Операционная система: Windows 10
В обоих случаях, игра находилась на ССД накопителе.
Самое сложное было найти игру. Она должна "вылезать" на определенных настройках за объем 2 Гб памяти, ее должна "тянуть" сама карта (вернее, ее чип). А кроме того, игра должна быть более-менее нормально оптимизирована. Выбор пал на Doom 2016 года.
Настройки выбраны следующие:
Включено ограничение фпс в 60 кадров в Панели управления НВидиа. Это сделано для того, чтобы было легче интерпретировать результат. Средний фпс в этом тесте для нас не важен.
Тестовый пробег занял около 15 минут. И по его окончанию имеем следующую картину по потреблению памяти:
Теперь повторим этот же отрезок на GTX 1070 с теми же настройками:
"Эталонная" карта тоже показывает, что потребление не выходит за пределы 2 Гб. Значит, в этом тесте GT 1030 работала без малейшего упора в видеопамять (но на пределе).
Переходим ко второй части теста.
Немного побегаем под запись с CapFrameX. Нам достаточно буквально 100 секунд.
Те же настройки:
Теперь изменим только одну настройку, которая влияет на загрузку видеопамяти:
Это "размер страницы при виртуальном текстурировании". Выставляем параметр на "ультра".
Потребление памяти выросло до 2 Гб. Но как это скажется на забеге? Появились фризы, что будет хорошо отражено в значениях 1% и 0,1% редких и очень редких событий.
На этих же настройках "эталонная" GTX 1070 показала потребление всего 2,5 Гб:
Всего 500 Мб, а какой это оказало эффект на GT 1030! Смотрим, на результаты.
Общий график фреймтайма:
Общий итоговый график:
Тут очень хорошо заметно, что в тот момент, когда GT 1030 не испытывала проблем с нехваткой видеопамяти, ее результат практически идентичен GTX 1070. Но при "вылезании" за пределы, пошли просадки по значениям 1% и 0,1% редких и очень редких событий. 1% редких событий упал с 54 до 33 фпс, а показатель очень редких - с 41 до 15! Памяти недостаточно, данные приходится подгружать. А тут - узенькая шина pci-e... То же ждет и покупателей "кастратов" от АМД, к слову...
Хорошо заметна разница в параметрах инпут лага.
GTX 1070:
GT 1030 без упора в память:
GT 1030 с упором в память:
Видите разницу? Думаю, комментировать это нет смысла.
Примерно то же самое будет в случае реальной нехватки 8 Гб видеопамяти. Разве что падение по 1% и 0,1% будут не такими большими из-за нормальной ширины шины pci-e.
Вот таким "макаром" и стоит тестировать игры на реальную, а не выдуманную нехватку видеопамяти. Ну, кто за такое возьмется?