Найти в Дзене
Юный моделист

Будущее видеокарт. Часть-1.

Давайте посмотрим на актуальную 20 лет назад видеокарту серии S3 Trio.

Серьезно, давайте оценим ее.
1. Минимальная электрическая мощность порядка ватт.

2. Из п.1. следует отсутствие системы питания ядра, плата очень компактна.

3. Из п.1 следует также и отсутствие необходимости мощной системы охлаждения. Не нужно громадного радиатора, как и вентиляторов. Полная тишина.

4. Модульная память. Каждый может купить видеопамяти сколько ему нужно, а потом установить на видеокарту. Можно докупить видеопамять, когда будут деньги или, когда потребуется расширить ее объем.

5. Вывод видеосигнала осуществляется через VGA, который тогда был стандартным. Один тип передачи сигнала, один вывод и т.д.

6. Подключение видеокарты осуществляется через распространенный даже сейчас разъем PCI. Эту видеокарту можно подключить к любому компьютеру с таким разъемом даже сейчас и работать она будет.

7. На плате почти отсутствуют радиодетали, подверженные порче или вызывающие проблемы. Нету мощных дросселей, которые могут начать свистеть, конденсаторов всего несколько — и те с минимальной емкостью.

Давайте теперь посмотрим на один из текущих топов, а именно на MSI GTX 1080 Ti Lightning Z.
Длина видеокарты составляет 32см

Она занимает 3 слота, что в целом стало уже явлением, не вызывающим удивления на данный момент

Видеокарта использует три стандартных разъема питания PCI-E

и по идее потребляет лишь 250Вт, что вызывает определенные сомнения, судя по системе питания и охлаждения. О системе охлаждения, конечно, нужно упомянуть в отдельности

Всего 5 тепловых трубок не кажутся чем-то исключительным. Ну, 3 вентилятора вы уже видели.

Если у кого-то завалялись S3 Trio и GTX1080ti, предлагаю провести простой эксперимент – сотрите с первой пыль, выровняйте смятые за время лежания видеокарты в мусоре конденсаторы. Ознакомьте с обеими видеокартами человека, абсолютно далекого от компьютеров, какого-нибудь пенсионера. А потом поинтересуйтесь, какая видеокарта, по его мнению, новее. Если ржавчина на планке S3 Trio вас не подведет, ответ будет в ее пользу.

Как же мы до такого докатились?

Очевидно, что к столь критическому росту размеров платы и тепловыделения привел процесс роста электрической мощности видеокарты. Ядро требует большей мощности, для ее обеспечения необходимо конструировать все более сложную подсистему питания, т.к. напряжение на ядре очень мало. Кроме того, выделяющееся тепло приходится еще и рассеивать, что в свою очередь требует повышения эффективности системы охлаждения. Т.к. рассеяние сотни-другой ватт (вспоминаем паяльник на 60Вт), да еще и в ограниченном пространстве гипотетического корпуса, уже непростая задача, приходится увеличивать воздушный поток (рост числа вентиляторов), площадь теплообмена и теплопроводность самого радиатора (рост числа и размеров тепловых трубок). Когда это началось? Первые поколения распространенных графических ускорителей обходились даже без радиаторов, как мы видим на примере S3 Trio. При дальнейшем развитии видеокарт понадобилась установка небольших радиаторов


ATI Rage 128 Pro 32Mб
ATI Rage 128 Pro 32Mб

Почему радиатор черный?
К самому началу текущего столетия уже многие видеокарты в линейке оснащались не просто радиатором, а уже и радиатором с маленьким вентилятором


ATI Radeon 8500LE 64Мб
ATI Radeon 8500LE 64Мб

Если кто-то экспериментировал с установкой маленьких вентиляторов куда-либо, то он отлично знает об их крайне низкой эффективности. Воздушный поток из-за размера их лопастей ничтожен, а шума такой вентилятор создает очень много за счет порядочной скорости вращения. Т.к. при этом энергопотребление видеокарт продолжало расти, даже в референсных (образцовых) видеокартах пришлось перейти к турбинам. Примерно после 2010 охлаждение типа турбины стало стандартным для образцовых видеокарт, и хотя мы живьем видим его все реже и реже, сами разработчики видеочипов представляют свои видеокарты по умолчанию с ним. Небезынтересно отметить, что в начале текущего столетия турбина, как тип охлаждения, могла продаваться отдельно для желающих проапгрейдить свою видеокарту с обычным маленьким радиатором. Сейчас их, конечно, уже не продают. Собственно, почему турбина?


Типичная система охлаждения типа турбины со снятым кожухом на GTX670
Типичная система охлаждения типа турбины со снятым кожухом на GTX670

Как видно, сама турбина захватывает воздух сверху, перенаправляет его в стороны, после чего воздух проходит через радиатор и охлаждает его. В идеале горячий воздух полностью выбрасывается за пределы корпуса. Нельзя не отметить, что со снятым кожухом турбина работать едва ли будет. Теоретический предел рассеиваемой мощности турбиной весьма велик – достаточно увеличить число ребер радиатора, приделать к нему пару тепловых трубок, и можно будет добиться рассеяния даже 450Вт тепла (HD6990). Однако, главным недостатком турбин является шум, т.к. сама турбина должна вращаться на больших скоростях. Поэтому примерно с 2008 года начался выпуск уже ставших привычными сейчас систем воздушного охлаждения, состоящих из тепловых трубок, относительно компактного радиатора и нескольких полноразмерных вентиляторов, дующих в направлении видеокарты через радиатор. Типичный пример, одна из первых ласточек


Thermalright HR-03 на 8800GT
Thermalright HR-03 на 8800GT

На данный же момент этот тип охлаждения стал уже вполне стандартным – странно покупать видеокарту с турбиной, на самом деле. Так что ситуация повторяется. Первоначально турбины продавались в качестве кастомного варианта охлаждения, затем стали стандартом. Затем радиаторы на тепловых трубках с вентилятором повторили их судьбу и стали фактическим стандартом. Остается надеяться, что дело не дойдет до компактной СВО на каждой видеокарте по умолчанию.

Это лишь примерная оценка роста мощности видеокарт, что называется «на глаз». Теперь предлагаю сделать оценку по более строгим критериям, а именно по графикам. Для построения этого и следующих графиков я AMD пользовался по больше части данными из Вики по видеокартам и NVINDA , однако, некоторые данные я заполнял сам на основе сохранявшихся в интернете данных. К большому сожалению, TDP старых видеокарт выпуска до 2007 года неизвестен. В графики включены почти все серии GeForce и Radeon примерно за 10 лет, кроме 100-й и 300-й серии GTX и 8000-й серии HD Radeon. Точки на графиках принадлежат видеокартам, по оси абсцисс отложена дата выхода видеокарты, по оси ординат – изменение тех или иных значений.
Итак, давайте внимательно изучим график изменения теплот, выделяемых видеокартами в работе примерно за последние 10 лет.

Напрашиваются следующие выводы:

1. Уменьшение техпроцесса не произвело ожидаемой революции в тепловыделении графических ускорителей.

2. Несмотря на крупный техпроцесс, самые холодные видеокарты выпускались до 2007 года. Первый крупный скачок тепловыделения произошел ок. середины 2006 – начала 2007. Это однозначно указывает, что тепловыделение в первую очередь задается требованием рынка. Когда видеокарты сами по себе уже плохо тянут игры, производителям приходится завышать частоты и напряжение, что приводит к очень сильному росту тепловыделения.

3. Выход максимального тепловыделения на плато произошел ок. 2009 года, плюс минус.

4. Плато максимального тепловыделения мощных моделей стойко держится с тех пор ок. 250Вт. Это, видимо, максимум, который позволяют объективные свойства видеокарты как устройства в современном его виде. Если бы можно было и дальше повышать тепловыделение, то, вне сомнений, производители видеочипов и дальше бы повышали частоту и напряжение. Однако, охлаждение видеокарты с тепловыделением выше 300Вт уже трудная задача, и в плохом корпусе она зажарится, да и шум вентиляторов либо турбины будет выше всяких норм.

5. Средние и слабые модели тоже медленно, но верно повышают свое тепловыделение. Если, правда, старшие модели уперлись в максимум (плато) около 2009 года, то средние уперлись в примерно 150-180Вт еще раньше. Слабые идут той же дорогой.

6. Наблюдается уменьшение числа представленных моделей с 2012 года. Особенно это заметно относительно моделей с низким тепловыделением. Их становится все меньше.

7. Списать последний довольно долгий застой на внимание к рынку мобильных решений, как это делали раньше, конечно же нельзя. Более того, как раз на момент максимальной популярности планшетов наблюдается достаточно высокая частота выпуска новых видеокарт.

8. Не менее парадоксальным и кажется то, что в годы мирового экономического кризиса выпуск новых моделей происходил значительно чаще, чем сейчас.

9. Последние два вывода снова нас приводят к главенствующей роли требований рынка перед объективными возможностями видеокарт.

Ну может, мы не зря терпим повышение тепловыделения, наверняка это оправдывается повышением вычислительной мощи? Попробуем это проверить. Конечно, нету способа однозначного найти точную производительность видеокарты, а потому я обратился к максимальной теоретической производительности для вычислений с одинарной точностью.

Тут довольно приятно видеть вполне экспоненциальный рост. Лично для меня оказалось неожиданностью заметно более высокая теоретическая производительность у видеокарт Radeon. Что ж, вероятно старая шутка про отсутствие драйвера

оказалась правдой. Не исключено, что дело и в оптимизации самих игр.

Теперь давайте сопоставим график изменения TDP и производительности. Тут несложно прийти к выводу, подтверждающему п.2:

10. Рынок требует экспоненциального роста производительности, при том, что производители видеочипов за этим требованием, очевидно, еле-еле поспевают. На это указывает рост TDP.

Теперь почему бы нам не соотнести производительность к мощности.

Сказать точно, какая тут функция задает кривую, трудновато. С одной стороны, у GeForce вроде видна степенная функция, а Radeon кривая имеет S-образную форму. Если мы отбросим оптимизацию драйвера и игр, то найдем, что AMD ок. 2009 достигла хорошей по эффективности архитектуры, которую использовала на протяжении многих лет и последние модели которой вышли еще в начале 2016. Это плато на S-образной кривой. Хорошо ориентируясь в выходивших видеокартах, несложно понять, примерно о каких моделях идет речь. У NVIDIA же скачок эффективности наблюдается с 2012 – скорее всего, принятие некой полностью новой архитектуры. За GeForce следует и экспоненциальный скачок у Radeon с 2015 года.

Понравилась статья? ставь палец вверх и подписывайся!