Квантовая дистилляция знаний для больших языковых моделей В статье предлагается использовать квантовые вычисления для оптимизации больших языковых моделей (LLMs). Описан алгоритм QD-LLM, который сокращает вычислительные затраты и потребление памяти при работе с LLMs. Эксперименты показали, что QD-LLM значительно уменьшает количество параметров и время обучения, сохраняя производительность. arXiv: 2505.13205 Обзоры | Квантовая физика
Квантовая дистилляция знаний для больших языковых моделей
20 мая 202520 мая 2025
1
~1 мин