Помните эпоху, когда сборка собственного компьютера, была похожа не на сборку, а на строительство Франкентшейна из самых разных плат причудливой формы? Может показаться, что старые компьютеры, хоть и выглядят странно, но внутри - практически такие же, как современные.
На деле это не совсем так, ведь раньше железо делали инженеры (а не маркетологи), унификации было меньше, а простора для экспериментальных, и даже странных решений - больше. Сегодня мы и посмотрим - что же такого странного делали инженеры в 2000-х годах. Особенно странные - номер 6 и 7, обязательно дойдите до них!
1. Много бед, один ответ - надо больше чипов
В конце 90-х-начале 00-х, графика в играх развивалась семимильными шагами. Ну, просто для примера, сравните первый "Кармагеддон" и "Morrowind" - между играми всего 7 лет разницы! Это примерно столько же, сколько между "Ведьмак 3" и "Elden Ring".
Однако красивая картинка требовала и более мощных видеокарт, с которыми все не так просто. Нас интересует 3DFX, которая в 2000-м году, серьезно отставала от своих конкурентов - ATI и Nvidia. У компании просто не было конкурентоспособного чипа.
Чтобы не потерять рынок, в 2000 году, они выпускают многочиповое поколение: 3DFX Voodoo 5000. Из всей линейки, один чип имела только младшая карта, средняя - уже два чипа, а флагманская Voodoo 5 6000 - сразу четыре графических чипа на одной плате!
В тех немногих играх, где корректно загружались все 4 ГП, Voodoo 5 6000 просто уничтожала конкурентов, нередко выдавая больше сотни кадров в секунду. Проблема только в том, что игр таких практически не было.
Да и сама карта оказалась откровенно плохой: 3DFX, в момент начала производства, уже банкротилась, поэтому в полу-кустарных условиях, было собрано всего около 200 таких видеокарт. Половина из них оказались нерабочими прямо из коробки, но даже те сто счастливчиков, которым повезло получить рабочий экземпляр, сталкивались с проблемами с питанием.
2. Экспериментами занимались не только 3DFX
К 2008 году, чипы стали горячими и мощными, так что флагманы тех лет имели по два чипа - не больше. Но инженеры из Asus решили, что у них получится сделать трехчиповую видеокарту, и спойлер - получилось.
Это была HD 3850X3 Trinity - огромная видеокарта, которая была скорее не единым устройством, а целой системой.
Видеокарты для ноутбуков в те годы, обычно, делали в форм-факторе MXM - это были как бы "полноценные", но очень маленькие видеокарты, с очень плотной компоновкой, сниженным TDP и, как правило, без собственной системы охлаждения.
Для начала они взяли плату-переходник, поставили в нее три HD 3850 для ноутбука, после чего оснастили монстра жидкостной системой охлаждения, и с гордым криком "я сделяль", понесли на обозрение широкой публике.
Публика, хоть и похвалила инженеров за старания, но посоветовала больше так не делать - загрузить два чипа - уже проблема, а тут их сразу три, причем ноутбучных!
В общем, добраться до серии 3850X3 так и не смогла, возможно, оно и к лучшему.
3. Что нам делать со старой памятью?
В 2005 году шел активный переход со старой памяти DDR, на новую, куда более быструю DDR2. Проблема в том, что на рынке осталось огромное количество старой памяти, которую было жалко выбрасывать, и ребята из Gigabyte решили дать старой памяти новую жизнь.
Так появился Gigabyte I-RAM. Это устройство представляло собой RAM-Disk, в который помещалось до 4 планок памяти DDR, соответственно, максимальный объем всего хранилища составлял 4 гигабайта. Не густо.
Но небольшой объем с лихвой компенсировался скоростью работы: в 2005 году не было пользовательских SSD, все сидели на довольно медленных HDD-дисках, нередко с IDE-интерфейсом. По их меркам, i-RAM был настоящей ракетой!
Он подключался по SATA первой версии, и хотя максимальная скорость передачи данных по ней - всего 150 мегабайт в секунду, эта скорость была одинаковой для всех режимов: больших и маленьких файлов, с длинной очередью и без нее.
Последний режим - самый важный, так как вся система и состоит из маленьких файлов, более того, не все современные Gen 5 SSD могут показать такую же скорость в режиме 4KQ1, а i-RAM делал это в 2005 году!
4. Два сокета на плате? А сокеты-то разные!
Но не стоит думать, что о нас думали только в Gigabyte. ASRock P4 Combo - плата для тех, кто хочет "заплатить однажды, получить дважды".
Фишка в том, что ранние процессоры на 775 сокете, по сути, были гипертрофированными Pentium 4, и потому далеко не все пользователи горели желанием познакомиться с преимуществами новой платформы, вроде SATA 2 или DDR2 - сказывалась цена процессоров на 775 сокете, которая была выше точно таких же "камней", но на старом-добром 478.
ASRock же подумали, да и решили - пускай пользователь сам выбирает, какой процессор ставить, и выпустили плату сразу с двумя сокетами: И 775, И 478. Ну а почему нет?
Конечно, одновременно мог работать только один процессор, но выглядит решение все равно диковинным и странным!
Единственная проблема была в том, что базировалась плата на "исконно-478" intel P848, и не поддерживала установку процессоров Core 2. По сути, это была плата под одни и те же процессоры, но на разных сокетах.
5. Была, впрочем, и другая идея...
Вроде ASRock K8 Upgrade 760 GX. Идея, в целом, та же, что на предыдущей материнской плате: сделать модель пригодной для "апгрейда платформы", без замены материнской платы. Причем в этой модели, ASRock придумали, как именно реализовать поддержку новых процессоров на старой плате.
Для этого на материнской плате был предусмотрен слот, куда вставлялась... Еще одна материнская плата! Точнее, только ее часть с сокетом, зоной питания и слотами под оперативную память, эдакая "апгрейд-плата" на 939 сокете, которая вставлялась в основную плату на 754 сокете через модифицированный слот AGP.
Это решение было куда "радикальнее", чем в случае с P4 Combo, и более того - "пранк вышел из-под контроля". Дополнительные модули выпускались даже под процессоры на сокете AM2, а список плат, в которые их можно было поставить, расширился до 6 штук!
Правда, не все платы поддерживали полную линейку модулей - чипсет по-прежнему оставался на "основной" плате, но если подобрать правильную плату (ASRock K8Upgrade-NF3), и докупить к ней модуль на AM2 - получалось причудливое сочетание чипсета от сокета 754, процессора на сокете AM2, DDR2-памяти и AGP-шины. Безумие? Оно самое.
6. Видеокарта с функцией апгрейда - безумие?
Идея сделать видеокарту "апгрейдо-пригодной", всегда звучала как рай энтузиаста. Вместо замены дорогой видеокарты целиком, куда проще поменять, например, модуль с чипом и памятью. Да, он тоже будет стоить дорого, однако дешевле всей карты целиком. Ведь так?
В этом и заключалась главная проблема MSI Geminium. По сути, это была переходная плата с чипом-коммутатором, в которую вставлялось две видеокарты MXM-формата.
Спорное решение, если учесть, что MXM-видеокарты стоили не дешевле настольных, зато были значительно слабее. Так мало того - их еще надо было найти!
Но главная проблема - в их количестве. Хотя Geminium выходил в эпоху SLI, когда в любом по-настоящему игровом ПК было больше одной видеокарты, работал этот самый SLI не везде. В таких играх, пользователь получал 66% производительности за 220% цены, по сравнению с покупкой обычной, одночиповой десктопной видеокарты.
7. Нет-нет, нужен полный апгрейд
Замена модуля - хорошо, но ребята из 3DFX (привет им снова), пошли дальше. Точнее, еще в 1999 году, они представили прототип видеокарты, где был съемный графический процессор!
Разработку назвали 3DFX Rampage, и да, если это название кажется знакомым - у 3DFX было несколько проектов с таким названием. Впрочем, главное - не это, а то, что у Rampage был съемный графический процессор! Представьте - "апгрейд чипа видеокарты", как вам?
Кто-то говорит, что в таком виде видеокарту планировали продавать, а кто-то утверждает, что съемный чип должен был быть только у инженерных образцов.
В каком виде ее планировали продавать - мы не знаем, да и скорее всего, никогда не узнаем, но решение сделать съемный ГП даже на инженерном образце - уже очень странное.
Кроме того, такую видеокарту нельзя просто взять и подключить к монитору - ей требовался специальный переходник-конвертер, который должен был распаиваться прямо на плате в релизной версии видеокарты.
Вот такие странные технологии ушли, и не обещали вернуться. К лучшему это, или к худшему - мы не знаем. Многое из того, что я описал в статье, на практике либо не использовалось должным образом, либо имело кучу нюансов, либо, как в случае с Geminium - и вовсе было бесполезным.
А какие необычные железки и технологии знаете вы?