WeDLM — новая фреймворк языковой модели на основе диффузии от команды Tencent WeChat. Она значительно ускоряет параллельную генерацию текста, сохраняя высокое качество рассуждений, предлагая до 3-кратное ускорение инференса по сравнению с GPT-подобными моделями. Команда разработчиков искусственного интеллекта из Tencent WeChat представила новую модель языка на основе диффузии под названием WeDLM (WeChat Diffusion Language Model). Эта разработка призвана устранить узкие места в области эффективности параллельного вывода, присущие традиционным большим языковым моделям, таким как серия GPT. Статья и код: https://github.com/tencent/WeDLM WeDLM использует технику топологической переупорядоченности, которая объединяет диффузионные модели со стандартными механизмами причинного внимания (causal attention). Это позволяет осуществлять параллельную генерацию текста, сохраняя при этом совместимость с ускорением на базе KV-кэша. Такой подход эффективно решает давнюю проблему диффузионных моделей, к
Команда разработчиков ИИ WeChat представляет WeDLM: новую структуру диффузионной языковой модели для более быстрого параллельного вывода.
14 января14 янв
2
2 мин