Найти в Дзене

Видеокарта — это не просто железка для игр. Это штука, которая умеет делать деньги, рисовать кино и разговаривать с космосом.

Вы включаете компьютер, чтобы поиграть в танки или посмотреть сериал. Для вас видеокарта — это коробочка, которая делает картинку красивой. Но на самом деле внутри этой коробочки живёт процессор, который по сложности сравним с городом. И работает он не только на вас. В мире есть миллионы видеокарт, которые никогда не показывали игры. Они считают белки, ищут нефть, торгуют на биржах и даже

Вы включаете компьютер, чтобы поиграть в танки или посмотреть сериал. Для вас видеокарта — это коробочка, которая делает картинку красивой. Но на самом деле внутри этой коробочки живёт процессор, который по сложности сравним с городом. И работает он не только на вас. В мире есть миллионы видеокарт, которые никогда не показывали игры. Они считают белки, ищут нефть, торгуют на биржах и даже помогают расшифровывать сигналы из чёрных дыр. Просто никто им об этом не сказал.

Как всё начиналось.

Первые компьютеры вообще не умели показывать картинки. Были лампочки, были перфокарты, был текст. Потом, в 1981 году, IBM придумала MDA — карту, которая умела выводить на экран только буквы. Никаких рисунков, никаких игр, только зелёные буковки на чёрном фоне . Для цветной графики нужно было покупать CGA — она умела показывать аж 16 цветов, но в разрешении, от которого сейчас глаза бы вытекли.

А потом случился 1996 год. Компания 3dfx выпустила Voodoo. Это была не видеокарта в полном смысле — она не умела показывать рабочий стол, только 3D-графику в играх. Но как она это делала! Quake, который до этого был просто набором пикселей, превратился в объёмный мир с текстурами и тенями . Люди сходили с ума, выстраивались в очереди, скупали эти карты тоннами. Именно тогда началась эра, в которой мы живём до сих пор.

Главное изобретение, о котором вы не знали.

31 августа 1999 года случилась тихая революция. Компания Nvidia показала GeForce 256 и впервые назвала свой чип GPU — Graphics Processing Unit . До этого момента все 3D-расчёты делал центральный процессор. Он считал, где находятся вершины треугольников, как на них падает свет, и только потом отдавал картинку видеокарте. GeForce 256 забрал эти задачи себе. Внутри него появился блок T&L — трансформации и освещения, который раньше был отдельной платой за тысячи долларов .

В том чипе было 23 миллиона транзисторов. Для сравнения: в современной RTX 4090 их 76 миллиардов — в 3300 раз больше . Памяти было 32 мегабайта, сейчас — 24 гигабайта, то есть в 768 тысяч раз больше по объёму . Цена тогда — 199 долларов, сейчас флагман стоит от 1600. Прогресс видно невооружённым глазом.

Шейдеры — это магия, которую программируют художники.

Следующий большой скачок случился в 2001 году с появлением GeForce 3. В нём впервые появились шейдеры — маленькие программы, которые управляют каждым пикселем на экране . Раньше всё было жёстко зашито в железе: вот так считается свет, вот так накладывается текстура, меняй не меняй. А с шейдерами разработчики получили свободу. Они научились делать воду прозрачной, металл — блестящим, кожу — живой.

Первые шейдеры писали на ассемблере, программы были длиной в 10–20 команд, никаких циклов и условий . Сейчас шейдеры — это полноценный код на C-подобных языках, с ветвлениями, циклами, функциями . Вершинные шейдеры двигают траву и колышут листья, пиксельные — рисуют блики на воде, геометрические — добавляют детали на лету. Это целая вселенная внутри одной маленькой микросхемы.

Когда видеокарта стала умнее компьютера

В 2006 году Nvidia выпустила GeForce 8800 GTX — первую карту с унифицированной архитектурой . Раньше в чипе были отдельные блоки для вершин, для пикселей, для геометрии. Если в игре было много геометрии, одни блоки простаивали, другие задыхались. А в 8800 все процессоры стали одинаковыми и могли делать всё что угодно, динамически распределяя нагрузку.

И тут учёные подумали: а почему бы не использовать эту мощь не только для игр? Оказалось, что видеокарты идеально подходят для расчётов, где нужно делать много одинаковых операций одновременно. Например, сворачивать белки, моделировать погоду, искать закономерности в биржевых графиках.

Так появилось направление GPGPU — общие вычисления на видеокартах . Nvidia даже выпустила специальную карту Tesla без видеовыходов вообще — просто вычислительный монстр, который умеет только считать . Одна такая штука выдавала 500 гигафлопс в 2007 году. Для сравнения: суперкомпьютеры тогда с трудом выдавали терафлопс и занимали комнату. А тут одна плата.

Зачем видеокарты космосу и медицине

Сегодня видеокарты работают везде, где нужно много считать. Они помогают расшифровывать геном, искать лекарства от рака, предсказывать землетрясения . В проекте Folding@Home тысячи добровольцев включают свои видеокарты, чтобы помочь учёным понять структуру белков . Среди самых мощных вычислителей там — игровые приставки PlayStation 3, внутри которых стоят мощные графические чипы.

В нефтянке видеокарты считают сейсмические данные, чтобы понять, где бурить скважину. В финансах — просчитывают риски и ищут арбитражные возможности за микросекунды. В кино — рендерят "Аватар" и "Мстителей", превращая миллионы полигонов в картинку, от которой захватывает дух.

А в последние годы случился бум искусственного интеллекта. Оказалось, что видеокарты идеально подходят для обучения нейросетей. В них даже добавили специальные тензорные ядра, которые ускоряют матричные вычисления в разы . Без видеокарт не было бы ни ChatGPT, ни Midjourney, ни всей этой вакханалии с генерацией картинок.

Получается, что видеокарта — это не просто устройство для вывода изображения. Это универсальный вычислительный комбайн, который умеет делать всё, что можно распараллелить на тысячу мелких задач. Она рисует вам игру, но в перерыве между кадрами может считать что-то полезное для науки. Просто вы об этом не знаете.

А знаете, что самое смешное? Та самая Voodoo, с которой всё начиналось, сейчас валяется на свалках или в коллекциях гиков. GeForce 256, изменивший мир, давно не работает и не включится даже ради интереса. А RTX 4090 через десять лет будет смешной игрушкой, на которой никто не сможет запустить новые игры. Но технологии, заложенные в них, останутся навсегда. Потому что принцип — "давайте всё считать параллельно" — никуда не денется.

А у вас какая видеокарта была первой? Помните тот момент, когда вы впервые увидели 3D-игру и упали со стула? Или вы из тех, кто вообще не играет и считает, что встроенного видео хватит за глаза? Расскажите в комментариях — интересно, кто на чём вырос.