Найти в Дзене
TehnObzor

Как видеокарты изменили мир – 4 революции GPU от Игр до ИИ

Оглавление

Графические процессоры прошли четыре этапа эволюции: игры, высокопроизводительные вычисления, майнинг криптовалют и искусственный интеллект. Как же видеокарты изменили наш мир?

Графический процессор, более известный как GPU (от англ. Graphics Processing Unit), начинал свой путь не как опора суперкомпьютеров или двигатель чат-ботов с искусственным интеллектом. Его история начинается в прокуренном зале игровых автоматов, где в 1979 году дебютировал автомат Galaxian от Namco.

Плата под мигающей армадой инопланетян доказала, что специализированный кремний может отрисовывать больше цветов, анимировать больше спрайтов (независимых 2D-объектов) и привлекать больше монет, чем любой компьютер общего назначения той эпохи.

За следующие пять десятилетий это стремление выводить больше пикселей, более плавно и для большего числа людей, эволюционировало в четыре отдельные революции: потребительские игры, научные высокопроизводительные вычисления, майнинг криптовалют и современный генеративный ИИ.

Проследив эту траекторию, можно увидеть, как чип, созданный для развлечений, стал рабочей лошадкой современных центров обработки данных и, возможно, послужит основой для гуманоидных роботов и автономных автомобилей завтрашнего дня.

Читайте: «Мемекс» Ванневара Буша – Как забытое 80-лет устройство может раскрыть ИИ-потенциал

Аркадные автоматы породили первое графическое оборудование

Когда материнская плата Galaxian отправляла на монитор сигнал разрешением 256 × 224 пикселей, она обрабатывала фоны из тайловых карт и независимо движущиеся разноцветные спрайты — всё это без помощи центрального процессора (CPU).

-2
Такая автономия оправдала создание схемы, оптимизированной исключительно для визуальных эффектов, и это окупилось.

Автомат стал второй по прибыльности аркадной игрой в Японии в 1979 и 1980 годах, а к 1982 году в США было продано около 50 000 единиц. Его успех напрямую привёл к ещё большему хиту Namco — Galaga (1981) — и убедил всю индустрию, что специализированное графическое оборудование может решить судьбу интерактивного опыта.

Консоли, авиасимуляторы и расширение графических горизонтов

Пока аркады переживали бум, домашние пользователи и профессиональные клиенты требовали схожих ощущений.

-3

Atari 2600 поставлялась с адаптером телевизионного интерфейса, который управлял видео, простым звуком и вводом с контроллера — по сути, это был прото-GPU, умещённый на одном чипе. Военные бюджеты пошли по другому пути, профинансировав в 1981 году авиасимулятор CT5 от Evans & Sutherland.

Работая на мини-компьютере DEC PDP-11, эта установка обошлась ВВС США более чем в 20 млн долларов — суровое напоминание о том, что передовая графика была дорогой, когда специализированное оборудование было редкостью.

Nintendo нашла золотую середину. Её 8-битная Famicom, выпущенная в 1983 году и переименованная в Nintendo Entertainment System в 1985-м, полагалась скорее на умный гейм-дизайн и маркетинг в стиле детских игрушек, чем на грубую мощность.

Настоящие визуальные скачки последовали с выходом Super Nintendo в 1990 году: 16-битный CPU, чипы-усилители вроде Super FX для трюков с полигонами и эффект перспективы Mode 7, который позволял трассам в Mario Kart имитировать 3D.

-4
Тем не менее аркады всё ещё лидировали; автомат I, Robot от Atari предоставил настоящее 3D ещё в 1984 году, подчёркивая, как далеко было до этого домашним системам.

Voodoo и рассвет потребительского 3D

В 1996 году компания 3dfx взорвала рынок ПК своей картой Voodoo 1.

-5

Вместо того чтобы заменять 2D-плату пользователя, Voodoo работала в паре с ней, перехватывая управление только тогда, когда программное обеспечение переключалось в режим 3D.

При правильной настройке карта разгоняла Quake до более чем 40 кадров в секунду при разрешении 512 × 384, превосходя всё, что было на полках магазинов. Конкуренты бросились в погоню.

ATI 3D Rage Pro, вооружённая конфигурацией с 8-мегабайтами памяти и интерфейсом AGP (ускоренный графический порт для видеокарт), догнала Voodoo по скорости, представив при этом раннее сглаживание для более чистой картинки.

GeForce 256: новая концепция GPU

31 августа 1999 года NVIDIA представила GeForce 256 и впервые использовала термин «графический процессор».

-6

Ранние 3D-ускорители всё ещё полагались на CPU для расчётов геометрии и освещения. GeForce объединила преобразование, освещение, растеризацию и пиксельное затенение (этапы создания 3D-изображения) на одном кремниевом кристалле.

Эта интеграция устранила серьёзное узкое место, позволив ПК выводить 32-битный цвет при разрешениях, которые когда-то были доступны только в аркадах.

Деморолики Quake III, сравнивающие машину с Voodoo и установку с GeForce, сами показывали себя: более яркие текстуры, стабильная частота кадров и безошибочный разрыв поколений.

Унифицированные шейдеры и консольные войны

Хотя NVIDIA захватила раннее лидерство на потребительском рынке — одна только её модель FX 5200 заняла около 3/4 розничного рынка, — но ATI одержала ключевые победы в гостиных.

-7

Microsoft Xbox 360, выпущенная в 2005 году, поставлялась с GPU «Xenos» от ATI, первым массовым чипом, использующим унифицированную шейдерную архитектуру (гибкое распределение графических задач по ядрам).

Вместо выделения отдельных конвейеров для работы с вершинами и пикселями Xenos позволял любому набору ядер обрабатывать любой тип шейдеров, максимизируя использование ресурсов и достигая тактовой частоты в 500 МГц, что превосходило суперкомпьютеры десятилетней давности.

Этот же принцип единства лежит в основе практически каждого современного GPU.

От пикселей к параллельной математике

Разработчики GPU наращивали количество ядер и пропускную способность памяти по мере того, как игровые миры становились всё более реалистичными, поддерживая динамическое освещение, симуляцию физики и плотные текстуры.

-8
Исследователи заметили, что чип, отображающий миллионы лучей, с таким же успехом может ускорять молекулярную динамику или атмосферные модели.

OpenCL (стандарт для параллельных вычислений) от Apple, выпущенный под эгидой Khronos Group, позволил программистам рассматривать объединённые системы CPU-GPU как один гигантский процессор.

Вычисления общего назначения на GPU, или GPGPU (неграфические вычисления на видеокартах), быстро стали незаменимыми в климатологии, медицинской визуализации, квантовой механике и астрофизике.

Криптовалютная лихорадка и великий дефицит GPU

Параллельная пропускная способность позволяет GPU с огромной скоростью решать криптографические головоломки, подтверждая транзакции в блокчейне.

-9

Когда стоимость биткоина и Ethereum взлетела, майнеры начали собирать целые серверные стойки из потребительских видеокарт, каждая из которых решала задачи «proof of work» («доказательство работы», решение криптозадач для защиты блокчейна) быстрее, чем когда-либо могли CPU.

К 2017 году геймеры столкнулись с пустыми полками и заоблачными ценами на видеокарты.

Когда начались локдауны из-за COVID-19, глобальный дефицит полупроводников столкнулся со спросом на оборудование для домашних офисов, превратив GPU в спекулятивные активы.

Розничные магазины ввели ограничения на покупку, перекупщики использовали ботов, а попытка NVIDIA ограничить производительность в майнинге через драйверы – провалилась.

Спрос нормализовался лишь тогда, когда Ethereum перешёл на модель «proof of stake» («доказательство доли», защита блокчейна владением криптовалютой), в которой подтверждения зависят от владения, а не от решения математических задач.

NVIDIA делает ставку на глубокое обучение

Пока криптовалюты занимали заголовки новостей, NVIDIA присмотрелась к другой возможности.

-10

В 2017 году она запустила архитектуру Volta с тензорными ядрами, специализированными блоками, которые выполняют матричные умножения на головокружительных скоростях — именно то, что нужно нейронным сетям для глубокого обучения.

Хотя ранняя плата GV100 нашла лишь свою нишевую аудиторию, следующая серия карт для дата-центров Tesla взлетела.

Вскоре тензорные ядра проникли и в потребительское оборудование в рамках архитектуры Turing 2018 года, в паре с RT-ядрами, которые ускоряли трассировку лучей в реальном времени.

Вместе они сделали возможной технологию DLSS — ИИ-апскейлер, который позволяет игре рендериться в разрешении 1440p, отображая при этом чёткие кадры в 4K, сочетая лучшую графику с более высокой производительностью.

Генеративный ИИ и четвёртый бум GPU

Широкая публика, наконец, узнала о мощи ИИ на GPU, когда в конце 2022 года OpenAI выпустила GPT-3, более известную через интерфейс ChatGPT.

-11

Обучение этой модели потребовало тысяч высокопроизводительных карт, соединённых с помощью NVLink (высокоскоростной интерфейс для связи GPU) от NVIDIA, который передаёт данные между GPU со скоростью до 900 гигабайт в секунду.

К 2024 финансовому году выручка NVIDIA от центров обработки данных взлетела до 18,4 млрд долларов, что составило более чем 400% роста по сравнению с предыдущим годом, и обеспечило компании примерно 65% долю на рынке вычислений для ИИ, что значительно опередило 22% у Intel и 11% у AMD.

Флагманский H100 предлагает пропускную способность памяти более 3 терабайт в секунду и может разделяться на 7 изолированных экземпляров GPU, позволяя выполнять одновременные рабочие нагрузки внутри одного физического пакета.

Архитектура Blackwell и путь к роботам

На своей конференции GTC 18 марта 2024 года NVIDIA анонсировала архитектуру Blackwell.

-12

С ней компания обещала удвоить производительность по сравнению с предшественником без удвоения энергопотребления и оптимизировать связь между GPU для сокращения времени обучения больших языковых моделей.

Компания также обозначила стремление к развитию в области гуманоидной робототехники и автономных транспортных средств, применяя свой опыт в параллельных вычислениях для восприятия и управления в реальном времени.

Смогут ли AMD или Intel нарушить эту динамику, нам ещё предстоит увидеть, но направление ясно. GPU — это больше не дополнение для игр. Это вычислительное сердце многотриллионных индустрий.

Следующий скачок может быть связан с квантовыми процессорами (устройства на принципах квантовой механики) или фотонными межсоединениями (сверхбыстрая передача данных с помощью света), но какую бы форму он ни принял, он почти наверняка будет основан на уроках, извлечённых при анимации инопланетных захватчиков в играх разрешением 256 × 224 пикселей.

Скромный графический процессор, рождённый для развлечений, стал краеугольным камнем современных вычислений, и его история всё ещё рендерится, кадр за кадром.

Хочу первым узнавать о ТЕХНОЛОГИЯХ – ПОДПИСАТЬСЯ на Telegram

Читать свежие обзоры гаджетов на нашем сайте – TehnObzor.RU