Компания NEO Semiconductor, известная своими разработками в области флэш-памяти 3D NAND и 3D DRAM, представила инновационную технологию 3D X-AI chip, призванную заменить текущие решения HBM в графических процессорах, используемых для искусственного интеллекта. Этот чип на основе 3D DRAM включает в себя функции встроенной обработки искусственного интеллекта, позволяющие ему создавать и обрабатывать данные без необходимости в математических вычислениях. Это существенно устраняет узкие места, возникающие при передаче больших объемов информации между памятью и процессором, что способствует повышению общей скорости и эффективности работы систем ИИ.
Основная концепция 3D X-AI заключается в использовании слоя нейронных схем, который обрабатывает информацию в 300 слоях памяти на одном кристалле. По заявлению NEO Semiconductor, такая 3D-память обеспечивает увеличение производительности в 100 раз благодаря 8000 нейронным цепям, выполняющим обработку данных непосредственно в памяти. При этом плотность памяти в 8 раз превосходит современные HBM, а энергопотребление снижается на 99% за счет уменьшения объема передаваемой информации, необходимой для работы мощных графических процессоров.
"Современные чипы ИИ теряют в производительности и эффективности из-за недостатков архитектуры и технологий", - отмечает основатель и генеральный директор NEO Semiconductor Энди Хсу.
Хсу отметил, что разделенная структура хранения и обработки приводит к узкому месту в производительности на шине данных. Перемещение больших объемов информации через эту шину ограничивает общую производительность и увеличивает потребление энергии. 3D X-AI предлагает возможность обработки данных с использованием искусственного интеллекта прямо в каждом чипе HBM, что может существенно уменьшить объем передаваемой информации между HBM и графическим процессором, тем самым повышая эффективность и значительно снижая энергозатраты.
Компания сообщает, что X-AI обладает объемом 128 ГБ и может осуществлять обработку данных с помощью искусственного интеллекта на уровне 10 ТБ/с на матрицу. Объединение двенадцати матриц в одном упаковочном решении HBM позволяет достигать 120 ТБ/с пропускной способности. Разработка технологий искусственного интеллекта открывает новые горизонты для вычислительной техники. Многие компании работают над решениями, способствующими улучшению скорости обработки и пропускной способности.