Графические процессоры прошли четыре этапа эволюции: игры, высокопроизводительные вычисления, майнинг криптовалют и искусственный интеллект. Как же видеокарты изменили наш мир?
Графический процессор, более известный как GPU (от англ. Graphics Processing Unit), начинал свой путь не как опора суперкомпьютеров или двигатель чат-ботов с искусственным интеллектом. Его история начинается в прокуренном зале игровых автоматов, где в 1979 году дебютировал автомат Galaxian от Namco.
Плата под мигающей армадой инопланетян доказала, что специализированный кремний может отрисовывать больше цветов, анимировать больше спрайтов (независимых 2D-объектов) и привлекать больше монет, чем любой компьютер общего назначения той эпохи.
За следующие пять десятилетий это стремление выводить больше пикселей, более плавно и для большего числа людей, эволюционировало в четыре отдельные революции: потребительские игры, научные высокопроизводительные вычисления, майнинг криптовалют и современный генеративный ИИ.
Проследив эту траекторию, можно увидеть, как чип, созданный для развлечений, стал рабочей лошадкой современных центров обработки данных и, возможно, послужит основой для гуманоидных роботов и автономных автомобилей завтрашнего дня.
Читайте: «Мемекс» Ванневара Буша – Как забытое 80-лет устройство может раскрыть ИИ-потенциал
Аркадные автоматы породили первое графическое оборудование
Когда материнская плата Galaxian отправляла на монитор сигнал разрешением 256 × 224 пикселей, она обрабатывала фоны из тайловых карт и независимо движущиеся разноцветные спрайты — всё это без помощи центрального процессора (CPU).
Такая автономия оправдала создание схемы, оптимизированной исключительно для визуальных эффектов, и это окупилось.
Автомат стал второй по прибыльности аркадной игрой в Японии в 1979 и 1980 годах, а к 1982 году в США было продано около 50 000 единиц. Его успех напрямую привёл к ещё большему хиту Namco — Galaga (1981) — и убедил всю индустрию, что специализированное графическое оборудование может решить судьбу интерактивного опыта.
Консоли, авиасимуляторы и расширение графических горизонтов
Пока аркады переживали бум, домашние пользователи и профессиональные клиенты требовали схожих ощущений.
Atari 2600 поставлялась с адаптером телевизионного интерфейса, который управлял видео, простым звуком и вводом с контроллера — по сути, это был прото-GPU, умещённый на одном чипе. Военные бюджеты пошли по другому пути, профинансировав в 1981 году авиасимулятор CT5 от Evans & Sutherland.
Работая на мини-компьютере DEC PDP-11, эта установка обошлась ВВС США более чем в 20 млн долларов — суровое напоминание о том, что передовая графика была дорогой, когда специализированное оборудование было редкостью.
Nintendo нашла золотую середину. Её 8-битная Famicom, выпущенная в 1983 году и переименованная в Nintendo Entertainment System в 1985-м, полагалась скорее на умный гейм-дизайн и маркетинг в стиле детских игрушек, чем на грубую мощность.
Настоящие визуальные скачки последовали с выходом Super Nintendo в 1990 году: 16-битный CPU, чипы-усилители вроде Super FX для трюков с полигонами и эффект перспективы Mode 7, который позволял трассам в Mario Kart имитировать 3D.
Тем не менее аркады всё ещё лидировали; автомат I, Robot от Atari предоставил настоящее 3D ещё в 1984 году, подчёркивая, как далеко было до этого домашним системам.
Voodoo и рассвет потребительского 3D
В 1996 году компания 3dfx взорвала рынок ПК своей картой Voodoo 1.
Вместо того чтобы заменять 2D-плату пользователя, Voodoo работала в паре с ней, перехватывая управление только тогда, когда программное обеспечение переключалось в режим 3D.
При правильной настройке карта разгоняла Quake до более чем 40 кадров в секунду при разрешении 512 × 384, превосходя всё, что было на полках магазинов. Конкуренты бросились в погоню.
ATI 3D Rage Pro, вооружённая конфигурацией с 8-мегабайтами памяти и интерфейсом AGP (ускоренный графический порт для видеокарт), догнала Voodoo по скорости, представив при этом раннее сглаживание для более чистой картинки.
GeForce 256: новая концепция GPU
31 августа 1999 года NVIDIA представила GeForce 256 и впервые использовала термин «графический процессор».
Ранние 3D-ускорители всё ещё полагались на CPU для расчётов геометрии и освещения. GeForce объединила преобразование, освещение, растеризацию и пиксельное затенение (этапы создания 3D-изображения) на одном кремниевом кристалле.
Эта интеграция устранила серьёзное узкое место, позволив ПК выводить 32-битный цвет при разрешениях, которые когда-то были доступны только в аркадах.
Деморолики Quake III, сравнивающие машину с Voodoo и установку с GeForce, сами показывали себя: более яркие текстуры, стабильная частота кадров и безошибочный разрыв поколений.
Унифицированные шейдеры и консольные войны
Хотя NVIDIA захватила раннее лидерство на потребительском рынке — одна только её модель FX 5200 заняла около 3/4 розничного рынка, — но ATI одержала ключевые победы в гостиных.
Microsoft Xbox 360, выпущенная в 2005 году, поставлялась с GPU «Xenos» от ATI, первым массовым чипом, использующим унифицированную шейдерную архитектуру (гибкое распределение графических задач по ядрам).
Вместо выделения отдельных конвейеров для работы с вершинами и пикселями Xenos позволял любому набору ядер обрабатывать любой тип шейдеров, максимизируя использование ресурсов и достигая тактовой частоты в 500 МГц, что превосходило суперкомпьютеры десятилетней давности.
Этот же принцип единства лежит в основе практически каждого современного GPU.
От пикселей к параллельной математике
Разработчики GPU наращивали количество ядер и пропускную способность памяти по мере того, как игровые миры становились всё более реалистичными, поддерживая динамическое освещение, симуляцию физики и плотные текстуры.
Исследователи заметили, что чип, отображающий миллионы лучей, с таким же успехом может ускорять молекулярную динамику или атмосферные модели.
OpenCL (стандарт для параллельных вычислений) от Apple, выпущенный под эгидой Khronos Group, позволил программистам рассматривать объединённые системы CPU-GPU как один гигантский процессор.
Вычисления общего назначения на GPU, или GPGPU (неграфические вычисления на видеокартах), быстро стали незаменимыми в климатологии, медицинской визуализации, квантовой механике и астрофизике.
Криптовалютная лихорадка и великий дефицит GPU
Параллельная пропускная способность позволяет GPU с огромной скоростью решать криптографические головоломки, подтверждая транзакции в блокчейне.
Когда стоимость биткоина и Ethereum взлетела, майнеры начали собирать целые серверные стойки из потребительских видеокарт, каждая из которых решала задачи «proof of work» («доказательство работы», решение криптозадач для защиты блокчейна) быстрее, чем когда-либо могли CPU.
К 2017 году геймеры столкнулись с пустыми полками и заоблачными ценами на видеокарты.
Когда начались локдауны из-за COVID-19, глобальный дефицит полупроводников столкнулся со спросом на оборудование для домашних офисов, превратив GPU в спекулятивные активы.
Розничные магазины ввели ограничения на покупку, перекупщики использовали ботов, а попытка NVIDIA ограничить производительность в майнинге через драйверы – провалилась.
Спрос нормализовался лишь тогда, когда Ethereum перешёл на модель «proof of stake» («доказательство доли», защита блокчейна владением криптовалютой), в которой подтверждения зависят от владения, а не от решения математических задач.
NVIDIA делает ставку на глубокое обучение
Пока криптовалюты занимали заголовки новостей, NVIDIA присмотрелась к другой возможности.
В 2017 году она запустила архитектуру Volta с тензорными ядрами, специализированными блоками, которые выполняют матричные умножения на головокружительных скоростях — именно то, что нужно нейронным сетям для глубокого обучения.
Хотя ранняя плата GV100 нашла лишь свою нишевую аудиторию, следующая серия карт для дата-центров Tesla взлетела.
Вскоре тензорные ядра проникли и в потребительское оборудование в рамках архитектуры Turing 2018 года, в паре с RT-ядрами, которые ускоряли трассировку лучей в реальном времени.
Вместе они сделали возможной технологию DLSS — ИИ-апскейлер, который позволяет игре рендериться в разрешении 1440p, отображая при этом чёткие кадры в 4K, сочетая лучшую графику с более высокой производительностью.
Генеративный ИИ и четвёртый бум GPU
Широкая публика, наконец, узнала о мощи ИИ на GPU, когда в конце 2022 года OpenAI выпустила GPT-3, более известную через интерфейс ChatGPT.
Обучение этой модели потребовало тысяч высокопроизводительных карт, соединённых с помощью NVLink (высокоскоростной интерфейс для связи GPU) от NVIDIA, который передаёт данные между GPU со скоростью до 900 гигабайт в секунду.
К 2024 финансовому году выручка NVIDIA от центров обработки данных взлетела до 18,4 млрд долларов, что составило более чем 400% роста по сравнению с предыдущим годом, и обеспечило компании примерно 65% долю на рынке вычислений для ИИ, что значительно опередило 22% у Intel и 11% у AMD.
Флагманский H100 предлагает пропускную способность памяти более 3 терабайт в секунду и может разделяться на 7 изолированных экземпляров GPU, позволяя выполнять одновременные рабочие нагрузки внутри одного физического пакета.
Архитектура Blackwell и путь к роботам
На своей конференции GTC 18 марта 2024 года NVIDIA анонсировала архитектуру Blackwell.
С ней компания обещала удвоить производительность по сравнению с предшественником без удвоения энергопотребления и оптимизировать связь между GPU для сокращения времени обучения больших языковых моделей.
Компания также обозначила стремление к развитию в области гуманоидной робототехники и автономных транспортных средств, применяя свой опыт в параллельных вычислениях для восприятия и управления в реальном времени.
Смогут ли AMD или Intel нарушить эту динамику, нам ещё предстоит увидеть, но направление ясно. GPU — это больше не дополнение для игр. Это вычислительное сердце многотриллионных индустрий.
Следующий скачок может быть связан с квантовыми процессорами (устройства на принципах квантовой механики) или фотонными межсоединениями (сверхбыстрая передача данных с помощью света), но какую бы форму он ни принял, он почти наверняка будет основан на уроках, извлечённых при анимации инопланетных захватчиков в играх разрешением 256 × 224 пикселей.
Скромный графический процессор, рождённый для развлечений, стал краеугольным камнем современных вычислений, и его история всё ещё рендерится, кадр за кадром.
Хочу первым узнавать о ТЕХНОЛОГИЯХ – ПОДПИСАТЬСЯ на Telegram
Читать свежие обзоры гаджетов на нашем сайте – TehnObzor.RU