Nvidia и Mistral AI анонсировали перспективную компактную языковую модель, которая, как сообщается, демонстрирует "выдающуюся" точность при минимальном размере. Эта новая модель называется Mistral-NemMo-Minitron 8B и является уменьшенной модификацией NeMo 12B, параметры которой были снижены с 12 млрд до 8 млрд. Разработчики этой модели применили метод, совмещающий обрезку и дистилляцию. "Обрезка позволяет уменьшить размеры нейронной сети путем устранения менее значимых аспектов модели, которые имеют незначительное влияние на точность. В процессе дистилляции команда переобучила эту усеченную модель на ограниченном наборе данных, что позволило существенно повысить её точность, упавшую из-за обрезки", - заявили в компании Nvidia. Nvidia создала Minitron 8B, основываясь на стандартном компьютерном оборудовании. Модель упакована как сервис NIM Nvidia, а её архитектура оптимизирована для минимальной задержки, что способствует улучшению времени отклика. Компания предлагает собственный сервис
Nvidia и Mistral AI предоставили свою новую компактную языковую модель Mistral-NemMo-Minitron 8B
23 августа 202423 авг 2024
4
1 мин