Доброго времени, господа. Вы наверняка слышали мнения, мол "раньше было лучше: трава зеленее, деревья выше, а переход с одного поколения видеокарт на другое, чуть ли не удваивал производительность". И действительно, сейчас компьютерные железки как будто остановились в развитии. Почему так, и увидим ли мы когда-нибудь +50% за поколение вновь? Давайте разбираться!
А в чем проблема?
Приведу очень простой пример: есть у нас Pentium EE 965 - самый топовый процессор intel для простолюдинов на момент 2005 года. 2 ядра, 4 потока, сумасшедшая частота в 3.73 ГГц, и цена в 1000$. Казалось бы, такого "аналога i9" должно хватить на десятки лет вперед, но вот, уже в 2006 году выходят Core.
Самый дешевый Core 2 Duo E4400 отстает от "гипер пенька" всего на 40%, а стоит при этом 60$. Разогнав бюджетный процессор, можно было получить производительность прошлогоднего топа за 1000$, потратив всего 60 и применив разгон.
С видеокартами ситуация та же: разница между GeForce 6600GT и 8600GT, судя по юзербенчу, разница 3-кратная:
Между 8600GT и 9600GT, разница снова более чем 2-кратная:
Даты выхода там, если что, неправильные. 6600GT - 2004, 8600GT - 2007, 9600GT - 2008 год. То есть за 4 года, производительность средних видеокарт выросла почти на 1000%. У процессоров с 2004 по 2008 (Pentium 4 Extreme 3.46 ГГц и Core 2 Quad QX9770) разница почти 1500%, а что сейчас?
Что-то как-то вяло... Может, хоть с видеокартами ситуация лучше?
А, нет, с ними еще хуже. Делаем вывод: производительность современных железок практически не растет относительно того, как она росла раньше. Вопрос - почему?
Ответов много
Самый банальный - мы уперлись в техпроцесс. О том, что кремнию пора на пенсию, говорят уже довольно давно, и в какой-то степени это правда. Если сделать переход с техпроцесса 90 нанометров на 65 - сравнительно просто, то уменьшать размер транзистора сейчас, когда они размером с 4 нанометра, намного сложнее. Физический предел - 1 нм, и мы вплотную к нему подошли.
А чем меньше один конкретный транзистор, тем проще упаковать МНОГО транзисторов в один кристалл, ибо тепла они выделяют меньше, места также занимают меньше, и, при этом, чем больше транзисторов - тем выше производительность, так как, грубо говоря, именно при помощи транзисторов и происходит магия компьютерной логики.
Только вот из-за сложностей с их уменьшением, пихать их в кристалл становится труднее. Растет тепловыделение и площадь кристалла, а вот производительность растет уже не так быстро.
Вторая, не менее важная причина - технологии.
Если физически наращивать мощность - сложно, то почему бы не сделать какой-нибудь новый DLSS, который практически бесплатно будет поднимать производительность? Да, будут нюансы, но это всяко лучше, чем видеокарта с потреблением в киловатт.
С процессорами все сложнее: у AMD получается держать хоть какой-то минимально-адекватный прирост за поколение, в то время как intel добивались такого же прироста... Увеличением частоты. Собственно, поэтому их процессоры и научились кушать по 400 ватт, если снять с них все лимиты.
Третья, еще более важная причина: а оно вам надо?
В большинстве случаев, за компьютером люди либо играют, либо выполняют какую-то офисную работу. О том, чтобы, не знаю, рассчитывать поведение ЖД моста во время передвижения по нему паровозика Томаса, парится один из миллиона. Компании, естественно, ориентируются на широкую публику.
С работой все понятно, но игры? Их-то системные требования должны расти быстро? Ну, для начала, вспомним кризис, который на момент выхода, нормально тянули единичные компьютеры. Нынешние игры же, спокойно запускаются на GTX 1060 - 8-летней видеокарте второй свежести.
Ну и зачем тогда тратить кучу сил на увеличение производительности, если можно, например, снизить цену или придумать какой-нибудь DLSS 4?
Причина четвертая и главная - производителям это не нужно
Чем постоянно бежать, спотыкаться и падать, крупные компании предпочитают медленно идти. Если раньше производительность можно было наращивать сравнительно безболезненно, то теперь, когда весь рынок поделен, а дуополия сформирована - можно и подождать.
Ведь зачем выкидывать революционный продукт на рынок, если пользователи и так покупают? Не проще ли продолжать делать деньги, пока хавают? Проще. Именно это производители и делают, когда показывают RTX 4060 (которая на деле - RTX 4050), когда чуть не вышла RTX 4080 12Gb (которая на деле - RTX 4070), или когда новые Radeon стоят в полтора раза дороже старых.
Но какой-то прирост должен быть, чтобы не стагнировать, все-таки конкурент (хоть и единственный) есть, и в случае чего - не применит возможностью скушать часть твоей доли на рынке, да и пользователи, если случается ситуация "+5% за поколение", просто перестают обновлять свои системы длительное время.
Таким образом
До того момента, пока чипы делаются из кремния, повторения "былых времен" с огромным ростом вычислительной мощности не планируется. Тут дело даже не столько в технологиях - да, производительность наращивать сложно, но можно, только зачем?
Компании потратят на это кучу денег, что повлечет за собой и рост цены, при этом не факт, что их инвестиции окупятся, и при всем этом - не ясно, зачем такая мощность нужна: для интернета? Для игр? Ну так извольте, в игры и на нынешнем железе прекрасно играется, а в интернете так и вовсе можно посидеть с 20-летним компом.
Для тех единичных пользователей, что занимаются реально тяжелыми задачами на своем компьютере? Ну так эти пользователи хорошо зарабатывают, работают в компаниях, которые для таких задач собирают рабочие станции, мощности которых также достаточно...
Гораздо логичнее перестать наращивать грубую производительность, а сконцентрироваться на эффективности использования того, что есть сейчас, что мы и видим на примере всяких DLSS.
На этом у меня все, если было интересно - не забудь поставить лайк и подписаться на канал. Увидимся!
Я тут еще статей нашел, посмотри: