Компания Xilinx уже не первый год развивает собственную экосистему, которая позволяет использовать её ПЛИС и SoC для ускорения работы нейронных сетей. Это и интеграция поддержки сетей в собственные продукты, и адаптация существующих сетей к имеющимся аппаратным платформам. У Xilinx имеется большой банк нейронных сетей «Model Zoo», в котором содержатся уже обученные и адаптированные для применения на ПЛИС и SoC сети. Это позволяет существенно упростить развёртывание и применение сетей в самых разных устройствах.
Но у Xilinx есть решение и для ситуации, когда разработчику нужно загрузить собственную нейронную сеть, которая ещё не приспособлена для использования в устройствах с программируемой логикой. Недавно компания Xilinx опубликовала технический документ «FPGAs in the Emerging DNN Inference Landscape», в котором подробно описала, как создавать более эффективные нейронные сети, увеличить скорость обработки данных и снизить их энергопотребление. В документе описаны такие методы, как квантование (Quantization), прунинг (Pruning) и другие. Также описаны, направления развития ускорителей нейронных сетей.
Документ содержит следующие разделы:
- Introduction
- A Quick Introduction to Deep Neural Networks
- Trends in DNN Models for Inference
- Methods for Creating More Efficient DNNs
- Efficient Topologies
- Quantization
- Pruning
- Layer Fusion and Decomposition
- Accuracy-Computation Trade-Offs: Examples from Quantization
- Trends in Inference Accelerator Architectures
- The Landscape of Inference Accelerator Architectures
- FPGA Implementation Advantages for Efficient DNNs
- Summary
- References
Более подробно с этим документом можно ознакомиться по ссылке.
За дополнительной информацией обращайтесь к специалистам компании Макро Групп – официального партнёра Xilinx.
Компания «Макро Групп» ВКонтакте: https://vk.com/macrogroupspb
Компания «Макро Групп» в Telegram: https://t.me/macrogroupru
Компания «Макро Групп» в Дзен: https://dzen.ru/macrogroup
Канал «Макро Групп» YouTube: https://YouTube.com