Квантовые нейронные сети (QNN) — перспективный класс моделей квантового машинного обучения. Однако при увеличении размеров систем их внедрение становится сложным. В статье предлагается решение этой проблемы через сжатие QNN с помощью метода дистилляции знаний. Это позволяет преобразовать хорошо обученные QNN в более компактные архитектуры с сохранением эффективности, что снижает затраты на обучение и ускоряет сходимость. arXiv: 2603.21586 Обзоры | Квантовая физика
Дистилляция знаний с помощью квантовых нейронных сетей
24 марта24 мар
~1 мин