Инженерам Intel удалось существенно улучшить графические драйвера с момента выпуска видеокарт Arc серии A, общая производительность повысилась не только в новых, но и старых проектах, удалось исправить некоторые ошибки, также похвально, что обновления исправно выходят перед релизами игр. В последние месяцы Intel в основном продвигает одну из старших видеокарт, настаивая, что модель A750 лучше по соотношению цены к производительности, чем GeForce RTX 3060 от NVIDIA. Про младшие решения A3 практически никто не вспоминает, но там тоже заметны улучшения, если судить по тестированию YouTube блогера RandomGaminginHD, где данные о производительности модели A380 шестимесячной давности сравнивались с результатами на бета драйвере 4335, также блогер протестировал новые игры.
В Marvel’s Spider Man Remastered и Red Dead Redemption 2 средняя частота кадров выросла на 26%, в Cyberpunk 2077 на внушительные 42,5%, а в Elder Ring — на 8,7%. Эти игры показывали приемлемую частоту кадров, около 50…60 к/с, в разрешении 1080p на низких настройках или комбинации низких и средних настроек графики. Что касается новых игр, в Hogwarts Legacy на низких настройках в среднем получилось 56 к/с, в демо версии ремейка Resident Evil 4 с пресетом «производительность» 57 к/с, в Warzone 2.0 на базовом пресете со сглаживанием 65 к/с, а в улучшенной версии The Witcher 3 — 63 к/с на средних настройках с TAA и SSAO. Неплохо для бюджетной видеокарты. В таких требовательных и недостаточно хорошо оптимизированных новинках, как Star Wars Jedi Survivor и The last of Us Part I, без масштабирования уже не обойтись, приходится включать AMD FSR 2: в первой игре на уровень «Баланс» со средним пресетом настроек графики, во второй — «Ультра производительность» с самыми низкими настройками. Это позволило добиться 46 и 48 к/с в среднем, но с просадками, в The last of Us Part I видеокарте тяжелее всего, несмотря на наличие 6 ГБ видеопамяти.
Источники RandomGaminginHD, YouTube