Хорошо известно, что от повышения производительности графических процессоров зависит будущее индустрии искусственного интеллекта. В настоящее время Nvidia является бесспорным лидером в области специализированных микросхем искусственного интеллекта, поставляя почти 90% графических процессоров, специально предназначенных для приложений искусственного интеллекта.
Укрепляя и дальше свое господство, компания недавно сообщила о разработке нового «суперчипа» GH200. По информации компании, ожидается, что GH200 резко снизит эксплуатационные расходы на LLM (большие языковые модели), такие как GPT или Bard.
| Nvidia
Когда речь идет о Nvidia, первое, что часто приходит на ум, - это графические процессоры этой компании, которые изначально предназначены для ускорения визуальной обработки изображений и видео. Но вместе с тем, графические процессоры продемонстрировали и свою универсальность, доказав исключительную производительность для широкого спектра применения, в том числе для работ в сфере искусственного интеллекта и криптографии.
С появлением крупномасштабных моделей искусственного интеллекта, включая большие языковые модели (LLM), спрос на вычислительную мощность резко возрос. В особенности на графические процессоры с несколькими ядрами, способные одновременно обрабатывать значительное количество вычислений. Поэтому не случайно, что такие авторитетные участники работ в области искусственного интеллекта, как Google Bard и OpenAI в ChatGPT, теперь полагаются на эти технологии.
Столкнувшись с этим растущим спросом, Nvidia объявила о завершении разработки своего последнего технологического чуда: чипа Gh200 Grace Hopper, использующего новый процессор (High Bandwidth Memory 3 E), который должен сделать его намного быстрее, чем существующие на базе Grace Hopper. Компания заявляет, что комбинация нового чипа Grace Hopper с процессором HBM3e обеспечит более чем в три раза больший объем памяти и в три раза большую пропускную способность по сравнению с платформой Grace Hopper текущего поколения. Новая платформа использует суперчип Grace Hopper, который может быть подключен к дополнительным чипам NVIDIA NVLink, что позволит им работать для развертывания гигантских моделей, используемых для генеративного искусственного интеллекта. Эта высокоскоростная когерентная технология предоставляет графическому процессору полный доступ к памяти центрального процессора, обеспечивая в совокупности 1,2 ТБ быстрой памяти в двойной конфигурации.
Эта новая платформа Nvidia является первой в мире, на которой установлен процессор HBM3e. HBM (память с высокой пропускной способностью) - это технология памяти, которая уже зарекомендовала себя своей способностью обеспечивать исключительную пропускную способность при оптимизации энергопотребления. С выпуском HBM3e Nvidia выходит на новый уровень.
Обладая значительной емкостью 282 Гб, чип памяти HBM3e характеризуется еще и тем, что он на 50% быстрее, чем его предшественник HBM3. Такое увеличение скорости приводит к повышению производительности, способной обеспечить комбинированную пропускную способность 10 Тб/сек. А это означает, что чип GH200 сможет работать с моделями искусственного интеллекта, которые по объему в 3,5 раза превышают возможности технологии HBM3. Эта память также дает чипу возможность обрабатывать сверхсложные модели искусственного интеллекта.
Кроме того, эта расширенная память означает, что крупномасштабная модель искусственного интеллекта может быть запущена на одном графическом процессоре. Это особенно примечательно в том плане, что для достижения такой производительности платформам обычно приходится использовать несколько графических процессоров, что приводит к дополнительным затратам и к работам повышенной сложности.
В ходе презентации представители Nvidia подчеркнули тот факт, что новый суперчип GH200 был оптимизирован для логических вычислений. Хотя эта операция часто бывает очень энергоемкой, компания заверяет, что GH200 значительно снизит энергопотребление. Другими словами, с GH200 вывод данных становится не только быстрее, но и экономичнее. NVIDIA заявила, что новые графические процессоры Grace Hopper "будут доступны в широком диапазоне конфигураций". NVIDIA также объявила, что первые системы, использующие графические процессоры Hopper GH200 с новой технологией памяти HBM3e, будут доступны во втором квартале 2024 года - после графических процессоров AMD Instinct MI300X, которые будут оснащаться процессорами HBM3 с пропускной способностью 5 Тб/с+ и емкостью видеопамяти до 192 ГБ.