Российские учёные из НИУ ВШЭ создали метод сжатия больших языковых моделей (таких как GPT и LLaMA), который уменьшает их объём до 36% без длительного дообучения. Технология позволяет мощному ИИ работать даже на мобильных устройствах, сообщили в пресс-службе Института искусственного интеллекта и цифровых наук. Исследователи НУЛ матричных и тензорных методов в машинном обучении применили подход, вдохновлённый древнегреческим мифом о Прокрусте. Подобно тому, как мифический разбойник «подгонял» путников под размеры своего ложа, математический метод ProcrustesGPT «поворачивает» веса нейросети в пространстве, подгоняя их под более простую и компактную структуру. Эти преобразования называются ортогональными. Если объяснять просто: представьте, что вы поворачиваете лист бумаги с чертежом. Длины линий и углы остаются теми же, но сам чертёж можно сложить компактнее. В случае с ИИ такой «поворот» позволяет заменить сложные вычисления на структурированные матрицы, которые занимают на 25–36% меньше
В России нашли способ сжать нейросети на 36% без потери «ума»
17 февраля17 фев
44
2 мин