Найти в Дзене
Ultimate Pc

"История компании NVIDIA"

Оглавление
Офис Компании в городе Санта-Клара Штат Калифорния
Офис Компании в городе Санта-Клара Штат Калифорния

Компания была основана в 1993 году.

Основатели — Дженсен Хуанг Крис Малачовски — Кертис Прэм приняли решение о создании компании в апреле 1993 года за обедом в Denny`s.
  • 1. Дженсен Хуанг
Дженсен Хуанг
Дженсен Хуанг
  • 2. Крис Малачовски
Крис Малачовски
Крис Малачовски

  • 3. Кертис Прэм
Кертис Прэм
Кертис Прэм

  • Малачовски и Прэм работали инженерами в Sun Microsystem, но были недовольны избранным компанией направлением развития, Хуанг занимал одну из руководящих должностей в компании-производителе интегральных съем LSI Logic. Они верили, что грядущий прорыв в компьютерной отрасли произойдёт благодаря аппаратному ускорению вычислений слишком тяжёлых для процессоров общего назначения. Выбор в пользу разработки графических процессоров (GPU) был обусловлен стремительным ростом популярности видеоигр с трехмерной графикой, который сулил большие прибыли производителям видеокарт. В их стартапе со стартовым капиталом в 40 тысяч долларов Хуанг стал президентом и главным исполнительным Директором (CEO), Малачовски занял пост вице-президента по разработке, а Прэм —главного технического директора. Название партнёры придумали только накануне регистрации компании: оно было выбрано как производное от Латинского invidia («зависть»), содержащего сочетание букв nv — сокращение от словосочетания next version («следующая версия»), которым предприниматели обозначали всю документацию по новому проекту.
В данной статье будет охвачен список карт знакомый каждому кто родился в 80Х-90Х годах и прошел на данных акселераторах не мало отличных игр, подготовьтесь налейте чай, кофе и окунитесь в историю графических ускорителей Nvidia.

Первая видеокарта Nvidia с незамысловатым названием NV1 вышла в 1995 году, она включала в себя чипы работы со звуком и джойстиками. По скорости трёхмерной графики она оказалась лидером, а вот с отрисовкой двумерных интерфейсов были проблемы. А тут ещё Microsoft подложила мину под NV1 — выпустила API DirectX, аппаратной поддержки которого у видеокарты Nvidia не было. Компания пыталась работать над NV2, но скоро стало очевидно, что новую видеокарту нужно создавать с нуля.

NV 1

NV1
NV1

Характеристики Nv1
Характеристики Nv1
  • Главная проблема NV1 заключалась в обработке 3D: процессор использовал квадратичное наложение текстур (quadratic texture mapping, QTM) вместо принятой сегодня технологии на основе полигонов. DirectX появился как раз после выхода этой видеокарты, и он тоже использовал полигоны, так что в долгосрочной перспективе чип NV1 потерпел поражение. Среди особенностей, которые стоит упомянуть, отметим возможность увеличения видеопамяти на видеокарте (на некоторых моделях) с 2 до 4 Мбайт, да и многие оптимизированные под карту игры были портированы с приставки Saturn, поскольку карта использовала схожую архитектуру.
  • Чип NV2 использовал такой же механизм рендеринга и так и не появился на свет. Он должен был использоваться в приставке Dreamcast (которая была призвана заменить Saturn), но Sega всё же выбрала технологию на основе полигонов (PowerVR), а Nvidia отказалась от QTM в пользу полигонального рендеринга с чипом NV3.

Riva 128

В 1997 году nVidia перешла на полигональный рендеринг с чипом NV3, который больше известен под названием Riva 128. Кстати, "Riva" расшифровывается как "Real-time Interactive Video and Animation accelerator" - интерактивный ускоритель видео и анимации в реальном времени. Существовало две версии чипа: Riva 128 и Riva 128ZX. Разница была невелика: у ZX использовался более скоростной RAMDAC и 8 Мбайт памяти вместо 4 Мбайт, а также поддерживалась AGP 2x. Ускоритель Riva 128 получил определённый успех, поскольку цена была привлекательной, несмотря на качество, которое в то время иногда оставляло желать лучшего при сравнении с продуктами 3Dfx. Карта nVidia обеспечивала поддержку одновременно 2D и 3D, а также и Direct3D. Драйверы OpenGL были выпущены только под 128ZX, хотя существовали специальные версии Quake (урезанный ICD).
Riva 128
Riva 128
-8
  • Riva 128 из-за своей цены обрела популярность и среди OEM, поскольку карты стоили дешевле Voodoo Graphics, а производительность Direct3D они обеспечивали почти такую же. Это были одни из первых видеокарт AGP, хотя Riva 128 и использовала этот интерфейс только в качестве более скоростной шины PCI. Наконец, что забавно, у nVidia был ещё один хорошо известный конкурент по производительности с одной из своих видеокарт, а именно Intel с i740. Времена изменились.

Riva TNT: Twin Texels

В 1998 году 3Dfx выпустила высокопроизводительную 3D-карту в виде Voodoo2, но у неё существовали ряд существенных ограничений. Среди них можно отметить архаичное управление памятью (раздельные текстуры), поддержку только 16-битного цвета, обязательное наличие раздельной 2D-карты и интерфейс только PCI (на практике, хотя модели под AGP тоже существовали). Затем на сцену ворвалась Riva TNT, первая скоростная 3D-видеокарта с большим объёмом памяти (на то время) и встроенными 2D-возможностями. За исключением производительности видео (у карты не было поддержки ускорения MPEG2, в отличие от карт ATI), TNT оказалась очень успешной. Это была первая видеокарта nVidia, способная накладывать две текстуры за один проход, отсюда карта получила название TNT - "TwiN Texel".
Riva tnt Nv4
Riva tnt Nv4
-10

  • Видеокарта TNT оказалась не такой мощной, как планировалось изначально. nVidia хотела выпустить более скоростную карту, чем Voodoo2, используя 250-нм техпроцесс с тактовой частотой 110 МГц (200 МГц для памяти). Но на самом деле TNT использовала 350-нм техпроцесс и тактовую частоту 90 МГц, как и видеокарта 3Dfx, а память работала на 110 МГц.

Riva TNT2 Ultra

В 1999 году вышла видеокарта TNT2. Она была близка к тому, чем должна была стать оригинальная TNT, и её, в принципе, можно рассматривать как урезание кристалла TNT с 350 до 250 нм. Кроме того, в то время nVidia впервые выпустила в линейке карту Ultra.
Riva TNT 2 Ultra
Riva TNT 2 Ultra

-12
  • Карты TNT2 распределялись по частотам. nVidia тогда решила использовать только две версии (далеко до сегодняшнего разнообразия, не правда ли?): TNT2 и TNT2 Ultra. TNT2 была весьма мощной видеокартой для своего времени, она могла легко поравняться с Voodoo3, обеспечивая при этом больше функций, хотя у неё по-прежнему не было поддержки декодирования MPEG2. Это была первая видеокарта nVidia AGP 4x, пусть даже этот стандарт для TNT2 был особо и не нужен
  • NV6, которая тоже вышла в 1999 году, представляла собой урезанную версию TNT2. Она продавалась под названиями Vanta, Vanta LT и TNT2 M64. Эти видеокарты были существенно медленнее, чем TNT2 (и оригинальная TNT), в частности, из-за меньшей тактовой частоты и 64-битной шины памяти. Впрочем, они весьма успешно продавались OEM, которые использовали название "TNT2" как приманку.

GeForce Первый GPU !

Позже в 1999 году nVidia анонсировала GeForce 256. Это была первая видеокарта, к которой nVidia применила название "GPU", но существенным шагом вперёд была поддержка трансформации и освещения (transform and lighting, T&L) видеокартой потребительского уровня. Эта технология, которая уже применялась в Open GL и профессиональной сфере 3D, производит вычисления над треугольниками на видеокарте, а не на CPU. В некоторых случаях прирост производительности был довольно существенен, поскольку видеокарта в то время была примерно в четыре раза мощнее, чем high-end CPU (15 млн. треугольников у GeForce против четырёх миллионов у 550-МГц Pentium III).

GeForce  256
GeForce 256
-14

  • Видеокарта использовала отличную от TNT2 архитектуру. Вместо двух конвейеров рендеринга, каждый оснащённый текстурным блоком, было решено перейти на четыре конвейера с одним текстурным блоком на каждый, что давало GeForce более высокую производительность рендеринга при меньшей тактовой частоте. GeForce 256 также стала первой видеокартой, которая использовала память DDR SDRAM с более высокой пропускной способностью.
  • nVidia перешла напрямую с NV6 на NV10, представив GeForce 256, и затем номенклатура будущих моделей увеличивалась с шагом пять, с вариантами для моделей верхнего и нижнего уровней. Кроме того, видеокарта GeForce 256 оказалась первой моделью nVidia с поддержкой ускорения MPEG2, но только частично (Motion Compensation, компенсация движения). Наконец, это была первая видеокарта потребительского уровня с выходом DVI (реализован через внешний чип).

GeForce 256 NV15

В 2000 году nVidia выпустила быструю видеокарту GeForce 256 DDR, но и ATI стала более конкурентоспособна с появлением Radeon, который оказался и быстрее, и эффективнее. nVidia ответила новой видеокартой GeForce 2 GTS. Она использовала техпроцесс 180 нм и была существенно быстрее GeForce 256. У видеокарты удвоилось число текстурных блоков с 1 до 2 на конвейер рендеринга, что позволило накладывать восемь текстур за один проход. nVidia выпустила несколько версий видеокарты: GTS (GigaTexel Shader, 200/166), Pro (200/200) и Ti (250/200).
GeForce 2 GTS
GeForce 2 GTS

-16
  • В августе 2000, до выхода GeForce 3, nVidia представила видеокарту NV16 (GeForce 2 Ultra). Это была не новая модель, а NV15 с увеличенными тактовыми частотами: 250 МГц для GPU и 230 МГц для памяти, по сравнению с 200 и 166 МГц, соответственно, у оригинальной видеокарты. Это была одна из самых дорогих моделей, когда-либо выпущенных nVidia.

GeForce 2 MX

Производительность у GeForce 2 GTS была великолепной, но и цена тоже "кусалась", поэтому nVidia нужно было представить модель для тех геймеров, которые не могут позволить себе тратить большие суммы на компьютер. И компания выпустила NV11 под названием GeForce 2 MX, которая вышла на рынок тоже в 2000 году. В отличие от TNT2 M64 и Vanta, которые представляли собой не больше, чем NV5 с 64-битной шиной памяти, у NV11 использовалась новая архитектура, унаследованная от GeForce 2 GTS. nVidia убрала часть конвейеров рендеринга, но по мультитекстурированию GeForce 2 MX была производительнее, чем GeForce 256.
GeForce 2 MX
GeForce 2 MX

-18

  • Эта была первая видеокарта nVidia, к которой можно было подключать более одного дисплея, и данная функция оставалась уделом видеокарт nVidia среднего уровня ещё несколько лет. GeForce 2 MX работала только с памятью SDR, и эта же видеокарта стала первой моделью GeForce, появившейся в виде мобильной версии (GeForce 2 Go)
  • nVidia представила несколько версий GeForce 2 MX друг за другом кроме стандартной модели и варианта Go. Среди них можно отметить MX400 (с GPU на частоте 200 МГц), MX200 (с GPU на 175 МГц и 64-битной шиной памяти на 166 МГц) и очень слабую MX100, с GPU всего на 143 МГц и 32-битной шиной памяти (пропускная способность 0,6 Гбайт/с). Наконец, были некоторые редкие карты с 64-битной памятью DDR, которые, по сути, представляли собой аналог карт со 128-битной памятью SDR.

GeForce 3

В 2001 году появилась видеокарта GeForce 3. Эта модель, первая, совместимая с DirectX 8, поддерживала программируемые пиксельные шейдеры. Обладая 57 млн. транзисторов, видеокарта работала на довольно консервативных тактовых частотах, и во многих случаях её обгоняла GeForce 2 Ultra (на момент выхода). Видеокарта привнесла несколько улучшений в подсистему работы с памятью, но её сложная архитектура не позволила nVidia разработать версию начального уровня.
GeForce 3
GeForce 3

-20

  • nVidia выпустила ещё две версии GeForce 3: Ti 200, которая была чуть дороже оригинала, и Ti 500, которая была ощутимо дороже. Первая работала на частотах 175/200 (GPU/память), а последняя - на 240/250 МГц.

GeForce 4

В 2002 году nVidia нужна была видеокарта с производительностью GeForce 3, но не такая сложная. Создавать новую видеокарту на основе её архитектуры (как это было сделано в случае NV11) было сложно, поэтому nVidia решила использовать для NV17 архитектуру GeForce 2, представив новую модель под названием GeForce 4 MX. Видеокарта использовала такую же архитектуру, что и GeForce 2 MX, то есть два конвейера могли выполнять рендеринг над двумя текстурами каждый, но на более высоких тактовых частотах. Видеокарта также использовала подсистему управления памятью, внедрённую с GeForce 3, обладала аппаратным декодированием MPEG2 и поддерживала несколько дисплеев. Однако она по-прежнему оставалась поколением DirectX 7, которое уже устарело к моменту выхода, пусть даже в некоторых случаях производительность была вполне адекватной.
GeForce 4 mx 440
GeForce 4 mx 440

-22

  • В линейке присутствовало три модели: MX420, MX440 и MX460. Первая работала на 250 МГц для GPU и 166 МГц (SDR) для памяти; вторая - на 275/200 (DDR) и третья - на 300/275 (DDR).
  • В дополнение к версиям 420, 440 и 460, nVidia выпустила мобильные варианта (GeForce 4 Go), версии с интерфейсом AGP 8x (с чипом NV18, где это было единственным улучшением), и даже версии PCI Express в 2003 году: PCX4300, с мостом AGP 8x-to-PCI Express 16x.

GeForce4 Ti 4600

Преемница GeForce 3, представленная в феврале 2002, была названа GeForce 4 Ti. Архитектура новинки была схожей с NV20 (GeForce 3), но NV25 была существенно быстрее из-за 150-нм техпроцесса. nVidia дала GeForce 4 Ti примерно в три раза большую мощность расчёта вершинных шейдеров по сравнению с GeForce 3, увеличив тактовую частоту и удвоив число АЛУ. Кроме того, nVidia улучшила LMA, технологию, которая снижала нагрузку на пропускную способность памяти, не вычисляя те данные, которые не будут отображаться.
GeForce Ti 4600
GeForce Ti 4600

-24

  • nVidia представила три версии видеокарты: Ti 4200, Ti 4400 и Ti 4600. Разница между ними заключалась в тактовой частоте: 250 МГц для GPU и 250 МГц для памяти (Ti 4200); 275/275 для Ti 4400; и 300/325 для high-end Ti 4600.
  • Позже в 2002 году появилась NV28. GPU был аналогичен NV25, но для видеокарт GeForce 4 Ti добавилась поддержка AGP 8x. Так, GeForce Ti 4800 (300/325) была идентична GeForce 4 Ti 4600 за исключением добавления интерфейса AGP 8x. GeForce Ti 4200 128 Мбайт обладала меньшей пропускной способностью памяти по сравнению с 64-Мбайт версией, поскольку память работала на частоте 222 МГц по сравнению с 250 МГц у 64-Мбайт карты.

GeForce FX 5800

В январе 2003 года nVidia выпустила GeForce FX 5800 (NV30). Эта карта была раскритикована как за производительность, которая попросту была недостойна high-end модели, так и за высокий уровень шума. Примерно в то же время вышла ATI Radeon 9700 Pro, которая была намного эффективнее и быстрее. NV30 оказалась коммерческим провалом, хотя nVidia иногда и говорит, что промахи - одни из лучших событий, что могут случаться с компанией, поскольку почивать на лаврах нельзя.
GeForce Fx 5800
GeForce Fx 5800

-26
  • Версия Ultra у видеокарты была быстрее (или, скажем, не такая медленная), с тактовой частотой 500 МГц для GPU и памяти (DDR2).

GeForce FX 5900

Даже после провала NV30, nVidia решила сохранить архитектуру, представив GeForce FX 5900, призванную заменить GeForce FX 5800. С 256-битной шиной памяти и улучшенной производительностью вершинных шейдеров, FX 5900 смогла отстоять позиции перед такими конкурентами, как Radeon 9800 Pro. nVidia также выпустила версии GeForce FX начального и среднего уровней: FX5600 (NV31) и FX5700 (NV36) для среднего сегмента и low-end модель FX5200 (NV34). Эти карты примечательны тем, что предыдущая модель среднего уровня (GeForce 4 Ti 4200) могла их обойти по производительности.
GeForce Fx 5900
GeForce Fx 5900

nVidia выпускает версии FX и PCX

-28
  • nVidia выпустила модели и для интерфейса PCI Express (линейка GeForce PCX), но они представляли собой AGP-видеокарты с мостом AGP-to-PCI Express. Некоторые видеокарты FX 5200 использовали 64-битную шину памяти (вместо 128-битной) и меньшую тактовую частоту памяти (166 МГц вместо 200 МГц).

nVidia возвращается с GeForce 6800 и SLI

После провала NV30 nVidia приложила все усилия для возвращения утраченных позиций. И это компании удалось сделать с выпуском видеокарты NV40, также известной как GeForce 6800. Карта была очень эффективной и намного более производительной, чем FX 5900, в том числе и из-за немалого числа транзисторов (222 млн.). NV45, которая тоже называлась GeForce 6800, представляла собой ни что иное, как NV40 с мостом AGP-to-PCI Express, что позволяло карте поддерживать новый стандарт интерфейса и, кроме того, SLI. Технология SLI позволяла сочетать две видеокарты PCI Express GeForce 6 для повышения производительности.
Geforce 6800 Ultra
Geforce 6800 Ultra
-30

  • Были выпущены видеокарты на основе чипов NV41 и NV42. NV41 и NV40 с меньшим числом вычислительных блоков (12 конвейеров и 5 вершинных блоков) использовались в некоторых видеокартах GeForce 6800; NV42 представлял собой NV41, изготовленный по 110-нм техпроцессу (поэтому чип был дешевле в производстве).

GeForce 6 средний сегмент

После выпуска GeForce 6800 nVidia нужны были видеокарты, которые были бы медленнее, но и дешевле. Чип NV40 был мощным, но 222 млн. транзисторов существенно сокращали выход годных кристаллов на производстве, что приводило к высокой себестоимости и розничной цене, поэтому две видеокарты на основе этого чипа, GeForce 6600 и 6200, получили средний успех. GeForce 6600, производившаяся по 110-нм техпроцессу, была основана на чипе NV43 и обеспечивала хорошую производительность при приемлемой цене. Версия PCI Express могла работать даже в режиме SLI.
GeForce 6600 GT
GeForce 6600 GT

-32

  • GeForce 6600 оказалась первой видеокартой nVidia с "родным" интерфейсом PCI Express, а модели AGP использовали мост PCI Express-to-AGP. GeForce 6200 была видеокартой начального уровня - не очень мощной, но и не очень дорогой. Были выпущены версии под PCI Express, AGP и PCI, а также и модели для ноутбуков.
  • Видеокарта GeForce 6200 оказалась первой с поддержкой технологии TurboCache от nVidia. Кроме выделенной памяти (от 16 до 512 Мбайт) видеокарта могла использовать и системную память. Некоторые производители использовали эту особенность, рекламируя, например, GeForce 6200 с "256 Мбайт", хотя на самом деле выделенной памяти было всего 64 Мбайт. Обратите внимание, что интегрированная версия ядра NV44 под названием GeForce 6100 использовалась в некоторых чипсетах nVidia. Чип производился по 90-нм техпроцессу, имел один конвейер рендеринга без выделенной памяти.

G70 и G71

В 2005 году nVidia объявила GeForce 7. Кодовое название GPU, которое традиционно было в виде NVxx, изменилось на Gxx. Первой видеокартой с новой номенклатурой оказалась G70 (GeForce 7800), за которой довольно быстро последовала G71 (GeForce 7900). Более мощная, чем линейка 6800, новая серия GeForce 7800 оказалась для nVidia весьма успешной. Видеокарты продавались во многих версиях, таких каких GTX и GS. Были выпущены и версии для интерфейса AGP с мостом PCI Express-to-AGP.
GeForce 7900 GTX
GeForce 7900 GTX

-34
  • После выпуска GeForce 7900 nVidia стала впервые использовать технику, к которой не раз прибегали конкуренты: видеокарты с двумя GPU. У 7900GX2 и 7950GX2 два GPU G71 работали параллельно. Компания повторно использовала эту технику в 2008 году, представив GeForce 9800GX2.

G72 и G73: low-end GeForce 7

Следуя своей привычке, nVidia выпустила ещё две версии видеокарт на high-end архитектуре: одну начального уровня (G72, GeForce 7300) и одну среднего (G73, GeForce 7600). Оба чипа изготавливались по 90-нм техпроцессу и обеспечивали адекватную производительность. Как обычно бывает, мобильные версии были построены на чипах среднего уровня, и видеокарты GeForce 7300 Go для ноутбуков стали весьма популярны.
GeForce 7600 GT
GeForce 7600 GT

GeForce 7600 GT

-36
  • Были выпущены менее (7200 Go) и более (7400 Go) скоростные мобильные версии. Кроме того, nVidia продавала и 80-нм вариант G73.

GeForce 8 и GeForce 9

В ноябре 2006 года nVidia анонсировала G80. Этот чип и его производные прожили длительную жизнь. На самом деле, даже в 2008 году некоторые из самых скоростных карт nVidia по-прежнему используют графический процессор, очень близкий к G80 (G92). nVidia выжала из G80 максимум, а переход на 65-нм техпроцесс с G92 позволил компании сэкономить средства, снизив себестоимость производства чипа. nVidia меняла число потоковых процессоров, ширину шины памяти и тактовые частоты, чтобы увеличить ассортимент версий GeForce 8800 и 9800. Появились даже видеокарты с двумя GPU: GeForce 9800GX2.
GeForce 8800 GTX
GeForce 8800 GTX

-38

  • Карты линейки GeForce 8800 все совместимы с DirectX 10, и nVidia оказалась очень и очень успешной с новой линейкой, что позволило не особо торопиться с преемницей.
  • Просто из любопытства позвольте перечислить все видеокарты, которые были выпущены в линейке GeForce 8800: 8800GS 384, 8800GS 768, 8800GTS 320, 8800GTS 640, 8800GTS 640 v2, 8800GTS 512, 8800GT 256, 8800GT 512, 8800GT 1024, 8800GTX 768 и 8800 Ultra 768. Затем появились 9600GSO 512, 9600GSO 384 и 9600GSO 768, 9800GX2 и 9800GTX - не говоря уже о будущих 9800GTS и 9800GT. И мы даже не упоминали мобильные версии!

GeForce 8-9 начального уровня

Чтобы выпустить недорогие версии видеокарт, nVidia серьёзно модифицировала G80. Учитывая число транзисторов, использовать полный чип было проблематично. Поэтому компания представила три версии чипа: GeForce 8400 (G86), GeForce 8600 (G84) и GeForce 9600 (G94). Были и другие версии (GeForce 8300, 8500 и т.д.), но три перечисленных модели являются основными. G84 активно используется в ноутбуках, в качестве high-end видеокарты, хотя в настольных ПК этот чип относится всего лишь к среднему уровню.
GeForce 9600 GT
GeForce 9600 GT
-40
  • GeForce 8600 и GeForce 8400 были настолько же посредственны, насколько успешны видеокарты G80 и GeForce 8800. Промежуток между high-end видеокартами и моделями среднего уровня (до появления GeForce 9600) был слишком широк, что создавало у геймеров с ограниченным бюджетом определённые проблемы.
Оставляйте комментарии, расскажите с какой карты началось ваше увлечение видеоиграми.