МОСКВА, 17 февраля. /ТАСС/. Российские исследователи разработали новый метод сжатия больших языковых моделей, который позволяет уменьшить их объем на 25-36% без дополнительного обучения и значительной потери в точности за счет использования новых математических подходов для уменьшения размеров нейросети. Результаты исследования опубликованы в Findings of the Association for Computational Linguistics. "Большие языковые модели, такие как ChatGPT и LLaMA, показывают впечатляющие результаты в генерации текста, переводе и других задачах, но их огромный размер делает их дорогими в использовании. Многие подобные системы невозможно или очень сложно запустить на одном графическом процессоре, и при этом их работа требует огромных вычислительных ресурсов", - говорится в исследовании. Как отмечают исследователи из Института искусственного интеллекта и цифровых наук (Москва), это связано с тем, что большие языковые модели содержат в себе десятки и сотни миллиардов параметров, на расчет которых треб
Разработан метод сжатия больших языковых моделей без потерь в качестве
17 февраля17 фев
2 мин