Приветствую читатели.
На моём канале вы можете найти предыдущие части Истории развития видеокарт.
Часть 1 (1981-1987) - Кликай
Часть 2 (1987-1999) - Кликай
Часть 3 (1991-2001)- Кликай
Часть 4 (2001-2005)- Кликай
NVIDIA G70 и G71
Еще в прошлой статье по истории видеокарт можно было заметить одну тенденцию - развитие видеокарт в середине первого десятилетия 21 века было похоже на стратегию тик-так у компании Intel. Суть стратегии в том, чтобы выпуск каждого нового поколения сопровождался либо значительными архитектурными улучшениями, либо, уменьшением тех.процесса. Такая тактика позволяет относительно часто выпускать новые продуктовые линейки с постоянным ростом производительности.
Компания Nvidia после успеха NV40 решила, что выпустит слегка обновленный чип G70. Чипы перешли на 110-нм тех.процесс, что позволило увеличить транзисторный бюджет до 302 миллионов при том же теплопакете, что и у предшественника. В целом разница в производительности могла достигать 50% в самых графонистых проектах того времени - Doom 3 и Half life 2.
Топовой видеокартой на чипе G70 стала GeForce 7800 GTX. Характеристики всей линейки вы можете увидеть в таблице ниже.
Годом позже вышло еще одно обновление без значительных изменений в архитектуре - чип G71. Выпускался чип уже по 90-нм тех.процессу и хотя и чип потерял часть транзисторного бюджета - в целом по производительности был лучше, чем G70. Топовым решением стала видеокарта Geforce 7900 GTX.
Однако самое интересное кроется в продуктах Geforce 7900 GX2 а позже и Geforce 7950 GX2. Nvidia к этому моменту уже уверено себя чувствовала на поприще систем, с несколькими видеокартами в режиме SLI(Кликай для перехода на статью про технологию SLI). Компания решила, что дальнейший мощный скачок можно сделать за счёт установки сразу двух чипом на одной плате.
Первый блин в лице Geforce 7900 GX2 вышел комом из-за невероятной длины видеокарты, состоявшей, по сути, из двух соединенных вместе Geforce 7900 GTX. Кроме того, система охлаждения с трудом справлялась с отведением тепла и в целом оставляла желать лучшего.
В Geforce 7950 GX2 ситуация была исправлена - чипы были размещены на плане, слегка превышающей размеры Geforce 7900 GTX и легко помещались в корпуса для стандартных материнских плат форм фактора ATX. Система охлаждения была так же доработана и уже не давала уходить чипу в троттлинг при комнатной температуре.
Благодаря двухчиповым решениям было положено начало технологии Quad-SLI, когда в одной системе могли работать сразу четыре чипа Nvidia.
В целом это были очень производительные решения, но, только в тех продуктах, в которых технология SLI поддерживалась и корректно работала. Очень часто в играх разработчиками не был предусмотрен режим работы с несколькими видеокартами. В таких случая двуглавые решения работали медленнее, чем их одночиповые братья-близнецы из-за меньших тактовых частот.
ATI R520 и R580
ATI запоздала с ответом на G70 из-за бага в новом процессоре. R520 был выпущен лишь осенью 2005 года и был основан абсолютно на новой архитектуре. Выпускался чип уже на 90-нм тех.процессе и главным его новшеством стала новая многопоточная архитектура. Главной задачей стало равномерное распределение загрузки между разными блоками. В чип добавили специальный блок, который отвечал за рациональную работу пиксельных конвейеров.
Вершиной линейки стала видеокарта Radeon X1800 XT. В плане производительности 512-мегабайтная версия была равна Geforce 7800 GTX. Однако качество картинки зачастую было выше именно на картах от ATI при одинаковых настройках графики(УЛЬТРА).
Из-за слишком запоздалого запуска линейка недолго пробыла на рынке и уже через несколько месяцев на посту лидера от ATI появился новый чип R580. Чип получил небольшие архитектурные изменения и более высокие тактовые частоты, что в совокупности позволило видеокарте Radeon X1900 XTX быть стабильно быстрее GeForce 7800 GTX.
Еще через полгода ATI выпустила R580+, главным отличием которого была поддержка новой быстрой памяти GDDR4. Благодаря этому видеокарта Radeon X1950 XTX на его основе была стабильно быстрее GeForce 7900 GTX.
NVIDIA G80 и G92
В конце 2006 года Nvidia следуя всё той же стратегии, похожей на интеловский тик-так выпускает принципиально новый чип - G80. На замену пиксельным и вершинным конвейерам пришли потоковые процессоры, которые могли обрабатывать абсолютно разные данные: физику, пиксели, вершины и геометрию. Именно на этому чипе впервые была применена технология CUDA. Была добавлена поддержка новых алгоритмов фильтрации текстур, появились новые методы сглаживания, которые позволили взаимодействовать с HDR-светом в режиме MSAA (Multisample anti-aliasing). G80 научился декодировать High Definition-видео. Наконец, продукты на основе G80 поддерживали Shader Model 4.0 и DirectX 10.
На основе G80 было выпущено несколько видеокарт. На момент выхода это был самый передовой чип и следующие два года он удерживал пальму первенства среди самых производительных графических решений. Даже следующий чип Nvidia, выпущенный в октябре 2007 - G92 не всегда мог опередить G80. G92 являлся по сути оптимизацией ядра G80 с переходом на более тонкий 65-нм тех.процесс.
Стоит сказать, что Nvidia внесли путаницу для покупателей в восьмитысячной, а позже и в девятитысячной сериях. Человеку, который слабо разбирался в характеристиках видеокарт, было трудно понять - какая карта из линейки обладает лучшими характеристиками. Ниже представлена таблица сравнительных характеристик топовых видеокарт из этих серий.
Как можно заметить - топовой видеокартой на момент выхода в 2006 году была 8800 GTX и урезанная по частотам и объему памяти 8800 GTS. Чуть позже в 2007 вышла 8800 Ultra с повышенными частотами. К концу 2007 выходит 8800 GTS 512, которая могла тягаться с 8800 Ultra и основана на чипе G92. На нём же Nvidia в апреле 2008 выпускает 9800 GTX - по факту клон 8800 GTS 512. Параллельно вышел двухчиповая 9800 GX2. Ну и довершил картину выход летом 2008 9800 GTX+ на чипе G92b - улучшенная версия на 55-нм тех.процессе. Все эти видеокарты продавались вместе на одном прилавке и создавали вопрос у покупателя - почему они все стоят практически одинаково.
В эти же года зародился мем про горячий нрав Nvidia 8800. Видеокарты этой серии выделялись на фоне предшественников огромными системами охлаждения. И даже с ними очень часто рабочие температуры приближались к 100 градусам по цельсию. Добавляло остроты то, что в русской раскладке GTX печаталась как ПЕЧ.
Отдельно скажу про 9800 GX2. Nvidia не искала легких путей и решила снова разместить чипы не на одной плате. В этот раз две платы располагались параллельно, разделенные системой охлаждения.
ATI R600 и RV670
В октябре 2006 произошло знаковое событие - компания ATI была куплена компанией AMD за 5,4 миллиарда долларов США. От самого бренда ATI отказались, полностью оставив только суббренд видеокарт Radeon.
Из-за процесса покупки компании выход ответа на 8800 GTX затянулся и выход нового чипа R600 состоялся только в мае 2007. По аналогии с Nvidia теперь применялась архитектура с большим количеством универсальных процессоров, способных выполнять самые различные задачи. До выхода R600 AMD применяла данный подход при разработке GPU для XBOX 360. Джентльменский набор того времени в виде поддержки шейдеров четвертого поколения, DirectX 11 и улучшенные алгоритмы сглаживания и фильтрации так же был на месте.
Первой видеокартой стала Radeon HD2900 XT с памятью GDDR3. Выпуск этой видеокарты оказался скомканным из-за процесса поглощения компании. Уже через 2 месяц свет увидела модификация Radeon HD2900 XT с памятью GDDR4, однако скорости памяти GDDR3 было достаточно для удовлетворения запроса чипа R600 и прирост производительности был минимален. В сумме карта могла конкурировать только с младшей 8800 GTS. Все ждали новую модификацию карты, способную конкурировать с топовыми решениями Nvidia.
В конце 2007 года AMD выпустила обновленный чип RV670 и видеокарты
с названием Radeon HD 3850 и HD 3870. По сути это был оптимизированный чип R600, выпускаемый по 55-нм тех.процессу. Данные карты принадлежали к среднему ценовому сегменту и не претендовали на звание флагмана. Чуть позже AMD выпустила своё первое двухчиповое решение Radeon HD 3870X2. Данная карта могла уверенно бороться с Geforce 8800 Ultra. Бочкой дёгтя здесь выступали драйвера AMD, которые далеко не во всех проектах могли позволить этой видеокарте работать корректно.
Продолжение следует
Подводя итоги 2005-2007 годов можно увидеть два устоявшихся факта. Первый - компания Nvidia хорошо закрепилась на лидирующей позиции разработчика графических решений. И в целом AMD хоть и будет иногда представлять более мощные и интересные решение, лидерство Nvidia она так и не сможет оспорить до настоящего времени.
Второй факт - гонка производительности привела к тому, что у топовых решений появились монструозные системы охлаждения. Такая картина так же сохранится и по сей день. Сейчас обычное дело, когда радиатор охлаждения занимает два или даже три слота расширения.
Продолжение на моём канале - кликай для перехода на следующую часть.