Найти в Дзене
Mizhgunit

Почему AMD всегда хуже Nvidia? Разбираемся

Как ни странно, но заголовок этой статьи - не кликбейт. Если мы посмотрим на этот график: То увидим, что пользователи просто не обращают внимания на видеокарты AMD - их доля на рынке неуклонно снижается еще с 2009 года. Но продажи - это не просто цифра, это покупатели, которые рублем голосуют за продукцию того или иного производителя, и за AMD, почему-то, голосуют сильно меньше. У меня есть ответ на этот вопрос, но эта статья - действительно огромная и подробная, поэтому если вам нужен быстрый ответ - вот ссылка на сокращенный вариант. Как следует из графика, доля AMD начала сокращаться еще с конца нулевых. Незадолго до этого, в 2008 году, одни "красные" купили других "красных", то есть ATi, которые успешно конкурировали с Nvidia на рынке графики без малого 10 лет. Для самой AMD, покупка оказалась опрометчивой - компания переживала не лучшие годы - летом 2008 года, 1 акция AMD стоила 5-6$, а к январю 2009, стоимость бумаг упала до 2$, достигнув своего минимума в 1,88$ в 2012 году. AMD
Оглавление

Как ни странно, но заголовок этой статьи - не кликбейт. Если мы посмотрим на этот график:

То увидим, что пользователи просто не обращают внимания на видеокарты AMD - их доля на рынке неуклонно снижается еще с 2009 года. Но продажи - это не просто цифра, это покупатели, которые рублем голосуют за продукцию того или иного производителя, и за AMD, почему-то, голосуют сильно меньше.

У меня есть ответ на этот вопрос, но эта статья - действительно огромная и подробная, поэтому если вам нужен быстрый ответ - вот ссылка на сокращенный вариант.

Теперь - к истокам проблемы

Как следует из графика, доля AMD начала сокращаться еще с конца нулевых. Незадолго до этого, в 2008 году, одни "красные" купили других "красных", то есть ATi, которые успешно конкурировали с Nvidia на рынке графики без малого 10 лет.

Для самой AMD, покупка оказалась опрометчивой - компания переживала не лучшие годы - летом 2008 года, 1 акция AMD стоила 5-6$, а к январю 2009, стоимость бумаг упала до 2$, достигнув своего минимума в 1,88$ в 2012 году. AMD буквально стояла на коленях, им нечем было кормить новоявленное приобретение.

Компания продавала старые видеокарты под новым названием - с легкой руки, HD 7000 стали называться Radeon R, а условные HD 3450 становились HD 4290 и перемещались внутрь процессоров и материнских плат.

Именно в это время была заложена бомба замедленного действия - технологическое отставание, которое AMD не может победить до сих пор, даже будучи успешной компанией.

Nvidia же времени не теряла

Они смекнули, что конкурент слаб, поэтому после выпуска неудачных GTX 200 и GTX 400, сперва решили умерить аппетит своих карт, а позже сформировали концепцию - делать ставку не на чистую производительность, а на технологии. Впрочем, использовать этот подход без этих самых технологий было невозможно.

CUDA и PhysX у них были еще с 2006 и 2008 года соответственно (да, чипы G80 уже поддерживали параллельные вычисления), в 2012 году, в серии GTX 600 был представлен энкодер Nvenc, который стал святым граалем для создателей контента. В 900-й серии его прокачали и добавили Shadow Play (помните такой?), а GTX 1000 - это вообще, одно из лучших поколений Nvidia во все времена.

-2

Дальше - помним. RTX 2000 - трассировка лучей и DLSS, RTX 3000 - DLSS 2, RTX 4000 - DLSS 3 с генерацией кадров, RTX 5000 - DLSS 4.5 с повышенной четкостью и увеличенным до X6 значением генерируемых кадров.

Что в это время делает AMD?

В самом начале они не верят в идеи Nvidia и делают ставку на "больше = лучше". Так, в 2012 году выходят HD 7000, фишкой которых была производительность и огромный (по тем временам) объем памяти - HD 7970 в топовых версиях поставлялась с 6 Гб GDDR5 - столько же стоит в моей RTX 3060M, которая на 10 лет младше.

В 2014 линейку HD 7000 переименовывают в Radeon R, видеокарты разгоняют, выпускают двухчипового монстра R9 295X2, и, как видно на графике, этот подход не взлетает. Да, карты AMD имели больше вычислительных блоков и памяти, то есть "чистая" производительность у них была выше.

Однако подвела оптимизация и огромное энергопотребление - карточки были очень горячими и шумными, при этом показывали тот же FPS, что видеокарты конкурентов (у которых, напомню, еще и технологии в портфеле). И с 2014 года, доля AMD на рынке графики начинает довольно быстро идти вниз.

Попытка исправить ситуацию

С 2016 до 2022 года, AMD пытается всеми силами исправить собственные ошибки. Так, вышедшие в 2016 году AMD RX, оказываются удачными, и даже на какое-то время приближают компанию к прежним цифрам продаж.

На руку сыграл и майнинг-бум, ведь оказалось, что холодные карты с большим количеством вычислительных блоков и памяти, копают виртуальную валюту на 20-30% быстрее "зеленых" конкурентов - все хитрые технологии и оптимизации в майнинге не работают, там нужна чистая мощь.

Но и в играх RX 400 и RX 500 показывают себя неплохо - так, RX 580 конкурирует с GTX 1060, но имеет больше памяти (4/8 Гб против 3/6 Гб), и стоит немного дешевле. Если бы 1000-я серия от Nvidia не оказалась такой удачной, вполне возможно, что первые RX-ы вернули конкуренцию на рынок.

Но если младшие RX были картами среднего сегмента, то RX Vega 56 и 64, должны были стать полноценными конкурентами GTX 1070 и GTX 1080 соответственно. Что вы думаете? Они снова были горячими, и снова никто не позаботился о том, чтобы оптимизировать под них игры. В итоге "на бумаге" более мощные RX Vega, буквально "сыпались" на фоне своих конкурентов.

"Сыпались" они еще и буквально - из-за высокого тепловыделения и турбинной системы охлаждения на реф-картах, они часто страдали отвалом ГП и памяти типа HBM2, которая была распаяна на кристалле. Отличное решение, AMD!
-3

Но время шло, Nvidia выпускает RTX 2000, и тут, внезапно, AMD просто нечем на них ответить. Они не могут сделать аналог тензорных ядер, которые применяются в новых "зеленых" ГП, поэтому со словами "он нам и не нужОн - Ray Tracing ваш", выпускают Radeon VII. Это был позор.

Получился монстр с 16 гигабайтами памяти HBM2 и графическим процессором на 18.4 миллиарда транзисторов, 4352 потоковых процессора и аж с 88 исполнительных блоков - по параметрам, это была карта, в полтора раза мощнее, чем RTX 2080Ti. Однако AMD уже в третий раз наступила на одни и те же грабли.

Тепловыделение в 250 ватт, вкупе с горячей памятью HBM2, приводило к нагреву до 80-85 градусов даже во время игры, а отсутствие оптимизации (как всегда), привело к тому, что в играх, и даже в тестах, RTX 2080Ti была практически в полтора раза быстрее. Nvidia была эффективнее, тогда как AMD пыталась сделать "мощнее и больше".

Исправление исправления

В том же году выходят RX 5000 - наследники RX 500. AMD снова сделала ставку на бюджетный сегмент, выпустив только RX 5500XT, RX 5600XT и RX 5700XT. Как ни странно, новые поделки AMD воспринимались с энтузиазмом - хотя они не поддерживали трассировку лучей, были построены на новой архитектуре RDNA.

Да, вы правильно поняли - все предыдущие карты имели архитектуру GCN из 2012 года. Да, ее дорабатывали, но тем не менее - Nvidia каждый раз разрабатывала новую, более эффективную архитектуру, а не держалась за старое "наследие". Это, к слову, один из ответов на вопрос "а почему AMD были такими горячими и медленными".

И несмотря на то, что RX 5000 были неплохими, в 2020 году Nvidia выпускает RTX 3000 - еще одну удачную серию видеокарт. Вообще и 2000-ю серию сложно назвать "провальной", но в RTX 3000 практически удвоилось число CUDA-ядер, заметно прокачали Nvenc, а также, как ни странно, не пожалели памяти - RTX 3060 имела 12 гигабайт, а топовая RTX 3090 - все 24.

AMD ответила на это лишь доработкой RDNA, в лице RX 6000. Несмотря на отсутствие тензорных блоков и RT-ядер, они поддерживали трассировку лучей, но при помощи AMD Ray Accelerators - название грозное, но по факту, оно означает простую обработку трассировки силами обычных шейдерных процессоров ГП, то есть - грубо говоря, "программную трассировку".

Это приводило к тому, что хотя AMD RX получили RT, они теряли намного больше производительности при включении трассировки, чем видеокарты Nvidia. В том же году, AMD представила FSR, который работал на всех видеокартах (в том числе на Nvidia), начиная с RX 500 или GTX 1000.

В наше время - воз и ныне там

В 2022 году, с новым улучшением RDNA, AMD официально объявила, что не будет конкурировать с топовыми решениями Nvidia. Они не стали выпускать аналогов RTX 3090, 4090 и 5090, но пообещали, что будут продолжать бороться за средний сегмент.

Проблема только в том, что поезд уже ушел. Несмотря на то, что сейчас AMD оперативно готовят "упрощенные" аналоги технологий Nvidia (упрощенные - в том смысле, что они работают на любых видеокартах), они часто проигрывают по качеству реализации, да и спустя столько провалов, репутация "красных", мягко говоря, подмочена.

Несмотря на то, что у AMD нет львиной части наработок, которые есть у Nvidia, их все равно немного, но покупают. Почему? Ответ банален: без учета всех новомодных технологий, карты AMD немного быстрее "зеленых" конкурентов, либо имеют чуть больше памяти, либо стоят чуть дешевле.

Пасхалка для тех, кто читает (не просто листает) - я пишу эту статью в 2:43. А во сколько вы ее читаете? Пишите в комментарии, глянем, кто смог осилить).

Тот самый подход с "чистой производительностью", с одной стороны - не дает AMD расти, с другой - не дает и окончательно упасть. И если майнинг-бум 2020-2021 года не смог изменить положение вещей (по крайней мере так же, как это сделал бум 2017 года), то сейчас происходят потенциально более интересные события.

Я говорю про искусственный интеллект

ИИ, в силу специфики своей работы, требует огромной вычислительной мощности, но в сравнительно простых задачах. Под эти цели идеально подходят видеокарты, и Nvidia вовремя увидела потенциал этой ниши - они быстро переоборудовали линии для производства ускорителей, а не видеокарт.

Начиная с RTX 4000, цены на каждое новое поколение стремительно растут, а что делает AMD? Они намеренно пропускают "новый майнинг-бум"?

-4

Нет. Дело в том, что хотя видеокарты AMD продаются плохо, с их продажами у них все замечательно. Парадокс? Снова нет. Чипы AMD стоят в консолях PS и Xbox, а встроенная графика - во всех ноутбуках с AMD, то есть суммарно, доля продаж AMD (если считать вообще все чипы), даже выше, чем у Nvidia. Просто они не гнут цены и спокойно ставят свою графику в консоли, заодно что-то продают и обычным пользователям.

И теперь - самое интересное. Несмотря на то, что Хуанг не забросил разработки новых технологий, его "зеленая" компания в глазах пользователей превратилась в Intel образца 2017 года, уж точно по части цен. Теперь ход за AMD, хотя пока что "красные" не спешат и тоже снимают сливки - видеокарты стоят в несколько раз дороже, чем раньше - ну как этим не воспользоваться.

Если отдел разработки AMD, который с момента прихода Лизы Су, переключится с процессоров на видеокарты - AMD может буквально силой пары поколений забрать весь рынок у жадной Nvidia, ибо сама AMD не воспринимается как таковая.

На практике, конечно, все компании одинаковы, но жадность тоже бывает разной - AMD на пике не меняет сокет по 5 лет, тогда как Intel, даже будучи поставленной на колени, продолжает буквально "доить" своих покупателей новыми платформами.

Что дальше?

Если бы мы знали все наперед, то жизнь не была бы такой интересной. Никто не знает, что будет дальше, но если вернуться к нашему графику (дам его еще раз тут):

-5

Мы увидим, что в последнее время, доля AMD снова начала расти. RX 9000 вышли довольно слабыми, но на фоне дорогущих Nvidia, и они продаются. Верим в Су и надеемся, что она сможет наконец выдать графическому подразделению карт-бланш на разработки.

Они смогли победить Intel в их же игре, сделали лучшую встроенную графику на рынке, и, кажется, начинают разворачиваться в сторону Nvidia и даже ИИ. Посмотрим, что их этого получится.