10,3 тыс подписчиков
🔥 Generative Pretraining in Multimodality
Model can take in any single-modality or multimodal data input indiscriminately through a one-model-for-all autoregressive training process.
Emu - мультимодальная на основе трансформеров, которая может легко генерировать изображения и тексты в мультимодальном контексте.
🖥 Github: https://github.com/baaivision/emu
📕 Paper: https://arxiv.org/abs/2307.05222v1
🚀 Dataset: https://paperswithcode.com/dataset/mmc4
Около минуты
12 июля 2023