Найти в Дзене
Mizhgunit

Почему процессор может деградировать, а видеокарта - нет?

Доброго времени, господа. Я тут заметил, что практически всегда в темах по деградации кремниевых чипов фигурируют центральные процессоры. Я и сам в недавних статьях объяснял физику (громко сказано) этого процесса на примере ЦП, но что насчет видеокарты? Ведь если так посмотреть, то чип там точно такой же (по принципу работы), как и в процессоре, отличия только в компоновке, а значит к деградации не имеют никакого отношения. Могут ли видеокарты деградировать, и если да, то почему про это никто не говорит? Давайте разберемся... Это процесс, при котором структура чипа (то есть медные дорожки, транзисторы и вот это все) начинает ломаться под воздействием некоторых факторов: в порядке убывания их значения - напряжение, сила тока, температура. Это вызывает миграцию атомов, физические повреждения структур и, как следствие, сначала невозможность выхода чипа на рабочие параметры, а потом и вовсе его смерть. Подробнее можно почитать вот тут. Так вот, в графическом процессоре происходят точно так
Оглавление

Доброго времени, господа. Я тут заметил, что практически всегда в темах по деградации кремниевых чипов фигурируют центральные процессоры. Я и сам в недавних статьях объяснял физику (громко сказано) этого процесса на примере ЦП, но что насчет видеокарты?

Фото из открытых источников
Фото из открытых источников

Ведь если так посмотреть, то чип там точно такой же (по принципу работы), как и в процессоре, отличия только в компоновке, а значит к деградации не имеют никакого отношения. Могут ли видеокарты деградировать, и если да, то почему про это никто не говорит? Давайте разберемся...

Что такое деградация чипа?

Это процесс, при котором структура чипа (то есть медные дорожки, транзисторы и вот это все) начинает ломаться под воздействием некоторых факторов: в порядке убывания их значения - напряжение, сила тока, температура. Это вызывает миграцию атомов, физические повреждения структур и, как следствие, сначала невозможность выхода чипа на рабочие параметры, а потом и вовсе его смерть. Подробнее можно почитать вот тут.

Вот у процессора то же самое, со временем он угнетается и перестает быть уравновешенным (не может выходить на заводские частоты при заводском же напряжении).
Фото из открытых источников
Вот у процессора то же самое, со временем он угнетается и перестает быть уравновешенным (не может выходить на заводские частоты при заводском же напряжении). Фото из открытых источников

Так вот, в графическом процессоре происходят точно такие же процессы, так как работает он по тому же принципу, что и центральный процессор, но по какой-то очень странной причине, графические процессоры действительно деградируют намного (в 3-10 раз, в зависимости от условий) медленнее, чем центральные процессоры.

Парадокс? Или как это, магия?

На самом деле нет. Все объяснимо, и даже банально. Начнем с того, что на графический процессор всегда подается меньшее напряжение, чем на центральный - да в том же зефире, если ничего не трогать руками, на процессор приходит 1.45v, а на графический процессор - 1.087v. Разница колоссальная, и если процессору в таком режиме жить "всего" лет 10-15 (до возникновения хоть каких-то заметных последствий), то видеокарта будет жить на порядок дольше - можно сказать, что вечно.

Видеокарта практически всегда работает на сниженном (относительно процессора) напряжении.
Фото из открытых источников
Видеокарта практически всегда работает на сниженном (относительно процессора) напряжении. Фото из открытых источников

В десктопах ситуация аналогичная: у большинства видеокарт рабочее напряжение колеблется от 1 до 1.2 вольт, а у процессоров доходит до полутора вольт. Напряжение - это самый сильный фактор деградации, и уже этого достаточно, чтобы вы не парились по поводу деградации видеокарты.

Но ведь и напряжение подается не постоянно!

Центральный процессор постоянно чем-то занят - он работает всегда, что во время просмотра браузера, что во время игр. При этом в логику его работы заложено энергосбережение, но такое, условное. Например, он будет выходить на максимальную частоту при... Открытии второй вкладки в браузере! Да, на короткое время, но тем не менее.

Фото: Bit-tech
Фото: Bit-tech

Процессор работает в максимальном режиме дольше, чем вы привыкли думать, даже в простое. Зато видеокарта - настоящий мастер чилла. Если вы прямо сейчас, не запуская игры, откроете свой мониторинг, то увидите на графическом процессоре минимальные частоты (что-то типа 200-250 МГц), минимальное напряжение, короче ГП будет отдыхать.

Пока на расслабоне, на чилле
Фото из открытых источников
Пока на расслабоне, на чилле Фото из открытых источников

Это - 2D-режим, в котором он работает все время, пока не востребован. Надо ли говорить, что в таком "чилл-моде", видеокарта проводит несоизмеримо больше времени, чем процессор, которому приходится постоянно молотить, да еще и с повышенным (относительно карты) напряжении?

Да и температуры у видеокарты пониже будут

Так как кристалл видеокарты физически больше: например, у RTX 4090 (чип AD102), площадь кристалла немного больше 600 квадратных миллиметров. У i9 14900K кристалл имеет площадь всего 257 мм², а удельное тепловыделение у него - 0.75 вт/мм² у RTX 4090 против 1.36 вт/мм² у i9 14900K. Отводить много тепла от маленького по площади кристалла - сложная задача, особенно если есть крышка (с нюансами), так что современные процессоры спокойно прогреваются до сотни градусов, всем водянкам назло.

Фото: 3DNews
Фото: 3DNews

А вот у видеокарт, температурный режим намного мягче - лишь единичные видеокарты (для массового рынка), работают с температурами выше 80 градусов, да и то - их никто не покупает, а инженеров гнобят. Нормальная температура для средней видеокарты в тесте - это что-то типа 65...70 градусов. Ну вы понимаете, пока процессор вовсю кипятит воду, графический процессор, можно сказать, ледяной.

Есть еще несколько причин, почему кристалл графического процессора деградирует медленнее (он просто очень умный), но они ситуативные или незначительны... Вот сейчас перечитал и думаю - не забыл ли я еще какой фактор деградации... Ну, если забыл, то напишите, пожалуйста, в комментарии.

У меня же на этом все, если было интересно - не забудь поставить лайк и подписаться на канал. Увидимся!

Также подпишись на телеграм (там IT-новости) и новостной канал (там новости выходят чуть позже, зато чуть побольше).