На прошлой неделе NVIDIA дала зеленый сигнал на старт продаж GeForce RTX 5060 Ti, но обзоры вышли лишь на вариант с 16 ГБ VRAM. Компания не желала освещать производительность версии на 8 ГБ, опасаясь негативной реакции геймеров.
Однако тесты все же были проведены, хоть и с некоторым опозданием. Одним из первых рецензентов новинки стал портал Hardware Unboxed, раздобывший GeForce RTX 5060 Ti 8 ГБ в наиболее доступном исполнении ASUS Prime. Видеокарту сравнили с MSI GeForce RTX 5060 Ti 16 ГБ Ventus 2X, которая также является самой недорогой.
В первом тайтле — The Last of Us Part II — в разрешении 4K модель на 8 ГБ оказалась в 2 раза медленнее: 34 FPS против 70. Переход на 1440p cгладил ситуацию, но GeForce RTX 5060 Ti 8 ГБ все равно уперлась в объем видеопамяти, выдав 77 FPS против 104.
Снижение настроек с очень высоких до низких, наконец, позволило более дешевой карте почти полностью раскрыться и продемонстрировать 142 FPS, что на 9% меньше, чем у GeForce RTX 5060 Ti 16 ГБ с её 155 FPS. Дополнительный тест в 1080p на пресете "very high" без DLSS выявил двукратную разницу в производительности.
Indiana Jones and the Great Circle в 1080p на ультра настройках без применения апскейлера крашилась на видеокарте с 8 ГБ VRAM. Снижение качества изображения до среднего уравняло обе карты, но в 1440p отрыв 16-гигабайтной модификации вновь достиг внушительной величины. В итоге разница в последнем случае составила 78%: 50 FPS против 89 FPS.
Даже в Cyberpunk 2077, в разрешении 1440p, с DLSS в режиме качество, и со средней преднастройкой трассировки лучей GeForce RTX 5060 Ti 8 ГБ отстала на 20%: 44 FPS против 53. При этом показатель 1% FPS на варианте с 8 ГБ памяти рухнул на 96% относительно GeForce RTX 5060 Ti 16 ГБ: 23 FPS против 45.
Подводя итоги в Hardware Unboxed заключили, что 8 ГБ VRAM явно недостаточно для современных ААА-проектов, а 12 ГБ в 2025 году — этот тот минимум, которым должна обладать видеокарта за ~$300.
Фактически, GeForce RTX 5060 Ti на 8 ГБ является примером того, как урезание объема видеопамяти может ограничивать потенциал GPU. В результате геймеры рискуют столкнуться с тем, что видеокарта может потерять актуальность уже через 2 года.