Добавить в корзинуПозвонить
Найти в Дзене

Квантовая дистилляция знаний для больших языковых моделей

Квантовая дистилляция знаний для больших языковых моделей В статье предлагается использовать квантовые вычисления для оптимизации больших языковых моделей (LLMs). Описан алгоритм QD-LLM, который сокращает вычислительные затраты и потребление памяти при работе с LLMs. Эксперименты показали, что QD-LLM значительно уменьшает количество параметров и время обучения, сохраняя производительность. arXiv: 2505.13205 Обзоры | Квантовая физика

Квантовая дистилляция знаний для больших языковых моделей

В статье предлагается использовать квантовые вычисления для оптимизации больших языковых моделей (LLMs). Описан алгоритм QD-LLM, который сокращает вычислительные затраты и потребление памяти при работе с LLMs. Эксперименты показали, что QD-LLM значительно уменьшает количество параметров и время обучения, сохраняя производительность.

arXiv: 2505.13205

Обзоры | Квантовая физика