На днях, случилось событие, которое меня изрядно обрадовало и подбодрило - со мной связался один из читателей и предложил мне на безвозмездной основе передать в дар небольшую кучку железа.
Собственно, вот она на фотографии.
Сетевая карта от 3Com, ТВ-тюнер, а также три видеокарты:
- nVidia GeForce 6200LE под PCI-E, с прорезью под PCI-E 4x разъём, и которую ещё предстоит проверить.
- nVidia GeForce 4 MX440 64Mb SDR 128Bit под шину AGP.
- nVidia GeForce 3 64Mb под шину AGP.
Последняя из названных и представляет наибольший интерес, ибо лично я никогда живьём карт на данном чипе в руках не держал, так как их появление пришлось на мою студенческую юность и было не до того. Да и сама эта видеокарта на рынке пробыла не больше года, и ей на смену пришла GeForce 4Ti в паре с GeForce 4MX - да заметёт песок её путь...
Обладателем GeForce 4 MX440 был и я, но благо я её не покупал, а выменял на GeForce 2MX с рабочим TV-out у человека которому он был нужен. Однако боль и страдания от владения данной картой я помню и поныне, ибо днище это было знатное. Днище это, не умело в пиксельные шейдеры и являлось по сути тем же самым GeForce 2MX с более высокими частотами. Сейчас это можно сравнить, например, с выпуском линейкой GTX1660, если бы она называлась как-нибудь GTX2160, т.е. вводила покупателей в заблуждение названием, относящимся к иному поколению видеокарт. Но сейчас Хуанг к счастью не опускается до подобных уловок в отличии от начала 00х, благо конкурентов у него нет. В былые времена и nVidia, и ATi/AMD частенько грешили подобным, но в основном это касалось видеокарт офисного сегмента. Но такого чтоб видеокарта с названием текущего поколения, оказывалась даже не прошлым, а позапрошлым поколением... такие случаи единичны.
Обзор пациента
Ну да вернёмся к GeForce 3, вот он наш сегодняшний пациент во всей красе.
Но вернёмся уже к нашему nVidia GeForce 3, а точнее у нас даже не он, а целая nVidia Quadro DCC 64Mb.
Видеокарта 2001 года выпуска, первая видеокарта с поддержкой DirectX 8.0, а именно пиксельных шейдеров версии 1.1 и вершинных шейдеров версии 1.1. Вы спросите, а как же 1.0? А я отвечу - их должна была поддерживать так и не вышедшая видеокарта фирмы 3Dfx под кодовым наименованием Rampage. Кстати если уж мы об это заговорили - шейдеры 1.2 были у профессиональной видеокарты фирмы 3Dlabs под именем Wildcat VP, шейдеры 1.3 это уже nVidia GeForce 4Ti, а шейдеры 1.4 это Radeon 8500/9100 и его обрезок Radeon 9000/9200. Забавно тут, что Radeon 8500 вышел на полгода раньше, чем GeForce 4Ti.
Но вернёмся уже к нашему испытуемому, собственно отличий от оригинального GeForce 3 тут особо и нет, за исключением драйверов с поддержкой всяческих там CAD приложений, в частности из того что я смог узнать - такая поддержка есть в 3D Studio Max 4. Однако нам все эти навороты не очень интересны, нам интересно чего оно умеет в играх. Ну а коли у нас тесты, то предлагаю подобрать ему достойных конкурентов из того что у меня есть в наличии. Ими буду nVidia Geforce 4 MX440 64Mb SDR 128bit, который пришёл с ним вместе, ATi Radeon 9200 128Mb 128bit как наиболее прямой конкурент, а также nVidia GeForce FX5600 128Mb 128Bit который я купил когда-то давно с первой зарплаты в 2005 году на замену GeForce 4 MX440. Собственно, вот все они в GPU-Z - для наглядного сравнения.
Как видим, наша nVidia Quadro DCC полностью соответствует по характеристикам стандартному nVidia GeForce 3, и очередной косяк у GPU-Z - блоков TMU у GeForce 3 - 8 штук, у GeForce 4 MX440 - 4 штуки. У GeForce 4 MX440 какие-то странные показания по частоте работы памяти 333MHz, такого быть не может учитывая, что память там SDR, видимо какой-то очередной глюк GPU-Z, а реальная частота памяти там 166MHz, если верить маркировке на чипах. Переживать о наличии у nVidia GeForce FX5600 шейдеров 2.0а особо не имеет смысла, ибо они там нерабочие от слова совсем, ну и естественно никаким OpenGL 2.1 там не пахнет даже близко. Вообще аббревиатуры MX и FX какие-то проклятые... под ними всегда скрывается какой-то хлам, например, процессор от AMD...
Ну да ладно, перейдём к тестированию, которое мы будем проводить с процессором Intel Pentium 4HT 2.8Ghz на ядре Prescott, оперативной памятью 1Gb DDR400 в двухканальном режиме и всё это под управлением Windows XP SP3.
Тестирование
3DMark 2001 SE
Синтетический тест под DirectX 7.0/8.0.
GeForce 3 на первом месте, а GeForce 4 MX440 там, где ему и место.
3DMark '03
Синтетический тест под DirectX 7.0/8.0/9.0.
GeForce 4 MX440 осилил только один тест из четырёх, GeForce 5600 вырвался вперёд за счёт прохождения всех четырёх тестов, а вот в паре Radeon 9200 и GeForce 3, прошедшей три теста из четырёх возможных, первенство остаётся за видеокартой от nVidia.
Quake 3 Arena
Игра 1999 года под OpenGL, тестирование проводилось в разрешении 1024x768 при 32bit цвете, на максимальных настройках графики.
Как видим в реальных приложениях у GeForce 3 также проблем не наблюдается, и он уверено держит за собой первое место.
Doom 3
Игра 2004 года под OpenGL.
На минимальных настройках GeForce 3 уверенно занимает второе место, а вот на максимальных настройках графики проваливается на третье, что в принципе объясняется малым объёмом видеопамяти на борту, ибо в данном режиме Doom 3 рекомендует использовать видеокарты с не менее чем 256Mb видеопамяти.
Unreal Tournament 2004
Игра 2004 года под DirectX 7.0 и выше.
И вновь GeForce 3 на первом месте, причём даже на максимальных настройках графики.
F.E.A.R.
Игра 2005 года под DirectX 8.0 и выше.
Ну а тут я даже не знаю, как комментировать, это какой-то... позор... GeForce 3 просто уничтожает конкурентов, однако это уже на минимальных настройках качества графики и малый объём памяти не даёт их особо повышать. Впрочем, такие показатели могут обуславливаться тем, что GeForce 3 использует шейдеры версии 1.1, а у Radeon 9200 и GeForce FX5600 работают шейдеры 1.4. И увы игра не даёт возможности выбрать, какую именно версию шейдеров использовать.
Итоги
Ну и что у нас по итогу, не зря я в всё-таки в заголовке назвал nVidia GeForce 3 легендарной видеокартой. Тестирование полностью подтвердило мой тезис. Я конечно ожидал от неё достойных результатов, но, чтобы таких - честно признаться не ожидал. По большому счёту, человек купивший её в далёком 2001 году, мог ею с комфортом пользоваться года эдак до 2006, а потом уже сразу перейти на PCI-E видеокарты. Что ставит данную видеокарту в один ряд с такой легендой как Voodoo 2.
А теперь перейдём к вопросу - почему вместо прорыва, получился пшик? Да, компания ATi спустя полгода, осенью 2001 года ответила своей не менее легендарной видеокартой Radeon 8500, на выпуск которой nVidia ответила выпуском GeForce 4Ti. Однако, как все помнят как-то не очень долго, что GeForce 3 на чипе NV20, что GeForce 4Ti на чипе NV25 гостили на полках магазинов, да и ценники на них были не сказать, чтоб доступные. А секрет тут прост, был у них ещё братишка под именем NV2a разошедшийся по миру в количестве 24 миллионов штук... в составе игровой приставки Microsoft Xbox. А мощности по производству чипов как мы нынче знаем - не резиновые. И чтобы не терять долю рынка ПК видеокарт и прибыль... компания nVidia выпустила печально знаменитые видеокарты GeForce 4MX на чипе NV17, что явно говорит о его происхождении от GeForce 2MX на чипе NV15. Собственно, господину Хуангу мы обязаны застоем в игровой индустрии начала нулевых. Ну а владельцы сих чудных видеокарт до сих пор просыпаются в холодном поту вспоминая как играли на минималках с тормозами в Doom 3, Half-Life 2, Halo: Combat Evolved или Fable: The Lost Chapters. Как выглядел последний, можно поглядеть на скриншоте ниже.
GeForce 3 vs GeForce 4 MX440
Впрочем, прямому конкуренту nVidia, компании ATi не хватило ума воспользоваться форой, которую дал им конкурент - пролюбив аж 2 поколения видеокарт подряд. И она сама занялась той же самой лажей - выпуском старых видеокарт под новым именем в своей X линейке, которая на половину состояла из устаревших чипов предыдущего поколения. И если nVidia существует по сей день, то вот компания ATi более не существует - вот она цена жлобства.
Ну не будем о плохом, в окончании я бы хотел поблагодарить читателя приславшего мне героя нашей сегодняшней статьи. Не каждый день, да что уж там - не каждый год случаются со мной такие радостные события. Данная видеокарта займёт достойное место в моей коллекции.
И я уже даже выделил отдельную коробочку для её хранения, до тех пор, пока не придумаю какую бы интересную ретро-сборку собрать на базе данной видеокарты.
Ну а на сегодня у меня всё - всем пока.