Портфель решений IBM Storage для больших данных и ИИ теперь включает в себя недавно анонсированную модель NVIDIA DGX A100, которая предназначена для ускорения аналитики и задач с использованием ИИ. Компания позиционирует Storage for Data and AI как компонент для трехэтапной обработки информации: Ingest, Transform, Analyse/Train. В эту архитектуру включены следующие системы: IBM планирует хранить данные в COS (он будет функционировать как Data Lake), где их будет индексировать с попутным добавлением метаданных Spectrum Discover. LSF управляет процессами машинного обучения, а Spectrum Discover перемещает необходимые данных из COS в ES3000 с помощью Spectrum Scale. Ну а данные с ES3000 отправляются на серверы DGX A100 для обучения ИИ-моделей. Мы уже писали про новый сервер DGX-A100 от Nvidia на базе ускорителей A100, которые, по заявлениям самой Nvidia, до 20 раз быстрее, чем Tesla V100 прошлого пооколения. Применение такого мощного сервера, без сомнения, ускорит обработку данных и позвол