76 подписчиков
Дайджест:
📹 ВИДЕО + АРТ 🎨
🤖 ЧАТЫ 🤖
IBM: опубликовали метод ModuleFormer, представляющий собой коллаб LLM-экспертов (MoE). Легко справляется с забыванием контекста и расширением знаний, при этом производительнее и использует компьют только тех экспертов, которые релевантны. Вместе с этим опубликовали модели MoLM на 4B и 8B, которые натренены на 300B открытых данных.
Shampoo: метод распределенной тренировки AI на множестве GPU, который на 10% эффективнее других методов за счет распределения памяти и вычислений, связанных с блоками каждого параметра, через структуру данных DTensor в PyTorch и выполнения примитива AllGather для вычисленных направлений поиска на каждой итерации.
Agents: опенсорсный фреймворк AI-агентов для выполнения веб-навигации и использования AI-инструментов с уровнем контроля на уровне задач и SOP.
Исследования:
* Sorted LLaMA: меняем Supervised Fine-Tuning (SFT) на Sorted Fine-Tuning (SoFT) и получаем большую производительность модели за меньший компьют.
💬 Делайте выжимки из доков и чатьтесь по ним с помощью Claude
1 минута
19 сентября 2023