В середине нулевых компьютер по определению не мог быть игровым, если в нем стояла всего одна видеокарта. В те годы считалось, что за системами с несколькими GPU будущее - ведь как и с ядрами процессора, одно - хорошо, но два и больше - лучше.
Прошло 20 лет, и ни один современный продукт Nvidia не поддерживает SLI - как, кстати, и у AMD - если старые видеокарты поддерживали Crossfire, но новые этой технологии лишены. Но почему?
Но сперва - немного истории
SLI (Scan Line Inteleave) - разработка не Nvidia, а 3DFX. Некогда легендарный производитель видеокарт представил технологию масштабирования еще в далеком 1998 году, с выходом Voodoo 2. Видеокарты объединялись в связку при помощи специального моста, после чего могли работать над одним изображением вместе.
В первой версии технологии, экран как бы делился на горизонтальные строки (отсюда и название), одна видеокарта обрабатывала четные, а другая - нечетные строки. Таким образом, каждая из них обрабатывала примерно вдвое меньше пикселей, а значит, в теории, такая связка могла выдавать вдвое больше кадров в секунду, чем одиночный ускоритель.
Но в тот момент, 3DFX уже находилась в плачевном финансовом положении - они просто не могли сделать конкурентоспособный графический чип, поэтому в серии Voodoo 5 выпустили сразу две двухчиповые видеокарты (Voodoo 5 5000 и Voodoo 5 5500), и даже единственную в истории 4-чиповую Voodoo 5 6000, которая сейчас стоит очень больших денег.
Крах компании и ее продажа Nvidia в 2000 году, позволили "зеленым" начать собственную реализацию SLI, которая, на тот момент, считалась крайне перспективной технологией.
Под крылом Nvidia
Идея SLI была заметно переработана, даже название изменилось - теперь оно расшифровывалось как Scalable Link Interface, дословно - "интерфейс масштабируемой шины". Видеокарты объединялись через специальный мостик, и все еще могли совместно работать над одной картинкой, правда, уже по совершенно другой логике.
Построчный рендеринг больше не применялся, теперь видеокарты обрабатывали каждая свой кадр. Это было технически проще реализовать (на уровне драйверов), однако требовало от обеих видеокарт синхронизации памяти (поэтому в SLI от Nvidia она не суммировалась), а также была проблема: кадры не идентичны друг другу по сложности.
Однако на тот момент, все это нивелировалось возможностью использовать дополнительный графический чип - игроделы охотно этим пользовались, поскольку видеокарты тех лет были довольно слабыми, и просто не тянули новые графические эффекты. Crysis вам в пример (он ставит на колени GTX 590 - двухчиповую видеокарту, которая вышла спустя 7(!!!!!) лет после выхода игры).
Что же могло пойти не так?
Со временем возникло сразу несколько проблем, причем совершенно разных - и технологических, и маркетинговых. Оказалось, что при объединении нескольких видеокарт, им нужно было совершать дополнительные действия для синхронизации - на бумаге, второй чип должен был удвоить количество FPS в играх, на практике - в лучшем случае, прирост был около 70%, а в худшем - около 20%.
Но даже такой прирост был реализуем только если игра изначально оптимизировалась под использование двух видеокарт. На заре технологии (как раз в нулевые), разработчики занимались этой оптимизацией из чистого энтузиазма, но к началу 10-х он как-то поутих.
Ведь купить две топовые видеокарты за несколько тысяч долларов могли далеко не все геймеры - доля таких систем на рынке держалась на уровне "меньше 1%", поэтому постепенно, на оптимизацию стали просто забивать. Тем же было хуже для пользователей, поскольку объединять можно было не только топовые видеокарты. И это была двойная проблема.
Во-первых, продажи топовых чипов Nvidia летели вниз - пользователи покупали условную GTX 460, и вместо планомерного перехода на GTX 480, простои покупали еще одну 460 - получалась связка с практически такой же чистой производительностью, но заметно дешевле.
Во-вторых, когда игры перестали нормально оптимизировать, многие начали считать себя преданными, так как они уже имели связку из пары средних видеокарт, которая теперь не работала - в лучшем случае, в паре проектов.
Это привело к тому, что начиная с 900-й серии, Nvidia начала убирать коннекторы для SLI из младших видеокарт - в 10-й серии они остались только на GTX 1070 и мощнее, а в 30-й серии - и вовсе только топовые 3090 и 3090Ti. Начиная с 4000-й серии, объединение обычных видеокарт для игр стало невозможным. Кроме того, с 2019 года, Nvidia перестала добавлять новые SLI-профили в драйвера, поэтому те немногие разработчики, которые продолжали оптимизировать игры под несколько видеокарт, тоже "отвалились".
Но может ли технология вернуться?
Ведь сейчас настало время, когда производительность на ватт практически перестала расти - может быть, настало время объединить видеокарты во второй раз? Фишка в том, что в серверах и рабочих станциях, этот подход снова стал актуальным, особенно в сфере обучения ИИ.
Правда, шина называется не SLI а NVLink, но от перемены мест слагаемых, как говорится, результат не меняется. Так что технология жива как таковая, просто в серверах и под другим названием, к тому же, существенно модернизированная.
А вот в обычных компьютерах связки из пары видеокарт, скорее всего, больше не появятся. Дело тут не только и не столько в технической невозможности, сколько в повторной нужде для разработчиков адаптировать игры под несколько видеокарт. Кроме того, такие связки снова снизят продажи видеокарт топового сегмента (если разрешат объединять младшие карты), а если не разрешат (то есть можно будет объединять только топовые карты) - в этом просто не будет смысла, так как такие компьютеры займут лишь 0,0001% рынка.
Вот и получается, что SLI - технология интересная, но ее время в домашних компьютерах уже давно прошло. И все-таки, есть еще один класс устройств, в которых применялся SLI, которые вполне могут вернуться в домашние компьютеры. Догадались, про что я? Пишите в комментарии!
Ну а если понравилась статья - не забудь поставить лайк и подписаться на канал, чтобы не пропустить новые материалы. До скорого!