Найти тему
Просто о Харде

История видеокарт 5. Эпоха двухголовых монстров

Оглавление

Приветствую читатели.

На моём канале вы можете найти предыдущие части Истории развития видеокарт.

Часть 1 (1981-1987) - Кликай

Часть 2 (1987-1999) - Кликай

Часть 3 (1991-2001)- Кликай

Часть 4 (2001-2005)- Кликай

NVIDIA G70 и G71

Еще в прошлой статье по истории видеокарт можно было заметить одну тенденцию - развитие видеокарт в середине первого десятилетия 21 века было похоже на стратегию тик-так у компании Intel. Суть стратегии в том, чтобы выпуск каждого нового поколения сопровождался либо значительными архитектурными улучшениями, либо, уменьшением тех.процесса. Такая тактика позволяет относительно часто выпускать новые продуктовые линейки с постоянным ростом производительности.

Внешний вид видеокарты Geforce 7800 GTX
Внешний вид видеокарты Geforce 7800 GTX

Компания Nvidia после успеха NV40 решила, что выпустит слегка обновленный чип G70. Чипы перешли на 110-нм тех.процесс, что позволило увеличить транзисторный бюджет до 302 миллионов при том же теплопакете, что и у предшественника. В целом разница в производительности могла достигать 50% в самых графонистых проектах того времени - Doom 3 и Half life 2.

Пример графики из Half-Life 2
Пример графики из Half-Life 2

Топовой видеокартой на чипе G70 стала GeForce 7800 GTX. Характеристики всей линейки вы можете увидеть в таблице ниже.

Сравнение характеристик видеокарт из серии GeForce 78хх
Сравнение характеристик видеокарт из серии GeForce 78хх

Годом позже вышло еще одно обновление без значительных изменений в архитектуре - чип G71. Выпускался чип уже по 90-нм тех.процессу и хотя и чип потерял часть транзисторного бюджета - в целом по производительности был лучше, чем G70. Топовым решением стала видеокарта Geforce 7900 GTX.

Сравнение характеристик видеокарт из серии GeForce 79хх
Сравнение характеристик видеокарт из серии GeForce 79хх

Однако самое интересное кроется в продуктах Geforce 7900 GX2 а позже и Geforce 7950 GX2. Nvidia к этому моменту уже уверено себя чувствовала на поприще систем, с несколькими видеокартами в режиме SLI(Кликай для перехода на статью про технологию SLI). Компания решила, что дальнейший мощный скачок можно сделать за счёт установки сразу двух чипом на одной плате.

Внешний вид видеокарты Geforce 7900 GX2 - длина даже по современным меркам запредельная
Внешний вид видеокарты Geforce 7900 GX2 - длина даже по современным меркам запредельная

Первый блин в лице Geforce 7900 GX2 вышел комом из-за невероятной длины видеокарты, состоявшей, по сути, из двух соединенных вместе Geforce 7900 GTX. Кроме того, система охлаждения с трудом справлялась с отведением тепла и в целом оставляла желать лучшего.

В Geforce 7950 GX2 ситуация была исправлена - чипы были размещены на плане, слегка превышающей размеры Geforce 7900 GTX и легко помещались в корпуса для стандартных материнских плат форм фактора ATX. Система охлаждения была так же доработана и уже не давала уходить чипу в троттлинг при комнатной температуре.

Внешний вид видеокарты Geforce 7950 GX2 бутерброд из двух видеокарт
Внешний вид видеокарты Geforce 7950 GX2 бутерброд из двух видеокарт

Благодаря двухчиповым решениям было положено начало технологии Quad-SLI, когда в одной системе могли работать сразу четыре чипа Nvidia.

В целом это были очень производительные решения, но, только в тех продуктах, в которых технология SLI поддерживалась и корректно работала. Очень часто в играх разработчиками не был предусмотрен режим работы с несколькими видеокартами. В таких случая двуглавые решения работали медленнее, чем их одночиповые братья-близнецы из-за меньших тактовых частот.

ATI R520 и R580

ATI запоздала с ответом на G70 из-за бага в новом процессоре. R520 был выпущен лишь осенью 2005 года и был основан абсолютно на новой архитектуре. Выпускался чип уже на 90-нм тех.процессе и главным его новшеством стала новая многопоточная архитектура. Главной задачей стало равномерное распределение загрузки между разными блоками. В чип добавили специальный блок, который отвечал за рациональную работу пиксельных конвейеров.

Внешний вид видеокарты Radeon X1800 XT
Внешний вид видеокарты Radeon X1800 XT

Вершиной линейки стала видеокарта Radeon X1800 XT. В плане производительности 512-мегабайтная версия была равна Geforce 7800 GTX. Однако качество картинки зачастую было выше именно на картах от ATI при одинаковых настройках графики(УЛЬТРА).

Из-за слишком запоздалого запуска линейка недолго пробыла на рынке и уже через несколько месяцев на посту лидера от ATI появился новый чип R580. Чип получил небольшие архитектурные изменения и более высокие тактовые частоты, что в совокупности позволило видеокарте Radeon X1900 XTX быть стабильно быстрее GeForce 7800 GTX.

Сравнение Radeon X1900XTX и Geforce 7950 GX. Преимущество явно не за двухголовым решением.
Сравнение Radeon X1900XTX и Geforce 7950 GX. Преимущество явно не за двухголовым решением.

Еще через полгода ATI выпустила R580+, главным отличием которого была поддержка новой быстрой памяти GDDR4. Благодаря этому видеокарта Radeon X1950 XTX на его основе была стабильно быстрее GeForce 7900 GTX.

NVIDIA G80 и G92

В конце 2006 года Nvidia следуя всё той же стратегии, похожей на интеловский тик-так выпускает принципиально новый чип - G80. На замену пиксельным и вершинным конвейерам пришли потоковые процессоры, которые могли обрабатывать абсолютно разные данные: физику, пиксели, вершины и геометрию. Именно на этому чипе впервые была применена технология CUDA. Была добавлена поддержка новых алгоритмов фильтрации текстур, появились новые методы сглаживания, которые позволили взаимодействовать с HDR-светом в режиме MSAA (Multisample anti-aliasing). G80 научился декодировать High Definition-видео. Наконец, продукты на основе G80 поддерживали Shader Model 4.0 и DirectX 10.

Пример графики из Crysis
Пример графики из Crysis

На основе G80 было выпущено несколько видеокарт. На момент выхода это был самый передовой чип и следующие два года он удерживал пальму первенства среди самых производительных графических решений. Даже следующий чип Nvidia, выпущенный в октябре 2007 - G92 не всегда мог опередить G80. G92 являлся по сути оптимизацией ядра G80 с переходом на более тонкий 65-нм тех.процесс.

Внешний вид видеокарты Geforce 8800 Ultra
Внешний вид видеокарты Geforce 8800 Ultra

Стоит сказать, что Nvidia внесли путаницу для покупателей в восьмитысячной, а позже и в девятитысячной сериях. Человеку, который слабо разбирался в характеристиках видеокарт, было трудно понять - какая карта из линейки обладает лучшими характеристиками. Ниже представлена таблица сравнительных характеристик топовых видеокарт из этих серий.

Сравнение характеристик видеокарт из серии GeForce 8800 и 9800
Сравнение характеристик видеокарт из серии GeForce 8800 и 9800

Как можно заметить - топовой видеокартой на момент выхода в 2006 году была 8800 GTX и урезанная по частотам и объему памяти 8800 GTS. Чуть позже в 2007 вышла 8800 Ultra с повышенными частотами. К концу 2007 выходит 8800 GTS 512, которая могла тягаться с 8800 Ultra и основана на чипе G92. На нём же Nvidia в апреле 2008 выпускает 9800 GTX - по факту клон 8800 GTS 512. Параллельно вышел двухчиповая 9800 GX2. Ну и довершил картину выход летом 2008 9800 GTX+ на чипе G92b - улучшенная версия на 55-нм тех.процессе. Все эти видеокарты продавались вместе на одном прилавке и создавали вопрос у покупателя - почему они все стоят практически одинаково.

Внешний вид видеокарты Geforce 9800 GTX+
Внешний вид видеокарты Geforce 9800 GTX+

В эти же года зародился мем про горячий нрав Nvidia 8800. Видеокарты этой серии выделялись на фоне предшественников огромными системами охлаждения. И даже с ними очень часто рабочие температуры приближались к 100 градусам по цельсию. Добавляло остроты то, что в русской раскладке GTX печаталась как ПЕЧ.

Внешний вид видеокарты Geforce 9800 GX2
Внешний вид видеокарты Geforce 9800 GX2

Отдельно скажу про 9800 GX2. Nvidia не искала легких путей и решила снова разместить чипы не на одной плате. В этот раз две платы располагались параллельно, разделенные системой охлаждения.

ATI R600 и RV670

В октябре 2006 произошло знаковое событие - компания ATI была куплена компанией AMD за 5,4 миллиарда долларов США. От самого бренда ATI отказались, полностью оставив только суббренд видеокарт Radeon.

Внешний вид видеокарты Radeon HD 3870
Внешний вид видеокарты Radeon HD 3870

Из-за процесса покупки компании выход ответа на 8800 GTX затянулся и выход нового чипа R600 состоялся только в мае 2007. По аналогии с Nvidia теперь применялась архитектура с большим количеством универсальных процессоров, способных выполнять самые различные задачи. До выхода R600 AMD применяла данный подход при разработке GPU для XBOX 360. Джентльменский набор того времени в виде поддержки шейдеров четвертого поколения, DirectX 11 и улучшенные алгоритмы сглаживания и фильтрации так же был на месте.

Сравнение характеристик видеокарт из серии Radeon 2900 и 38хх
Сравнение характеристик видеокарт из серии Radeon 2900 и 38хх

Первой видеокартой стала Radeon HD2900 XT с памятью GDDR3. Выпуск этой видеокарты оказался скомканным из-за процесса поглощения компании. Уже через 2 месяц свет увидела модификация Radeon HD2900 XT с памятью GDDR4, однако скорости памяти GDDR3 было достаточно для удовлетворения запроса чипа R600 и прирост производительности был минимален. В сумме карта могла конкурировать только с младшей 8800 GTS. Все ждали новую модификацию карты, способную конкурировать с топовыми решениями Nvidia.

Внешний вид видеокарты Radeon HD 3870 X2
Внешний вид видеокарты Radeon HD 3870 X2

В конце 2007 года AMD выпустила обновленный чип RV670 и видеокарты
с названием Radeon HD 3850 и HD 3870. По сути это был оптимизированный чип R600, выпускаемый по 55-нм тех.процессу. Данные карты принадлежали к среднему ценовому сегменту и не претендовали на звание флагмана. Чуть позже AMD выпустила своё первое двухчиповое решение Radeon HD 3870X2. Данная карта могла уверенно бороться с Geforce 8800 Ultra. Бочкой дёгтя здесь выступали драйвера AMD, которые далеко не во всех проектах могли позволить этой видеокарте работать корректно.

Продолжение следует

Подводя итоги 2005-2007 годов можно увидеть два устоявшихся факта. Первый - компания Nvidia хорошо закрепилась на лидирующей позиции разработчика графических решений. И в целом AMD хоть и будет иногда представлять более мощные и интересные решение, лидерство Nvidia она так и не сможет оспорить до настоящего времени.

Второй факт - гонка производительности привела к тому, что у топовых решений появились монструозные системы охлаждения. Такая картина так же сохранится и по сей день. Сейчас обычное дело, когда радиатор охлаждения занимает два или даже три слота расширения.

Продолжение на моём канале - кликай для перехода на следующую часть.

-17