Стартап Linum представил две text-to-video модели с открытым исходным кодом (лицензия Apache 2.0). Модели способны генерировать короткие видеоролики (2-5 секунд) в разрешении до 720p, используя всего 2 миллиарда параметров. Это позволяет запускать их локально на видеокартах с объемом памяти от 20 ГБ. Веса моделей доступны на платформе Hugging Face. Проект разработан братьями Сахилом и Ману Чопрами из Сан-Франциско, выпускниками Стэнфорда и UC Berkeley, прошедшими акселератор Y Combinator в 2023 году. Начало работы над Linum было положено осенью 2022 года, после появления Stable Diffusion. Первая версия, выпущенная в январе 2024 года, представляла собой GIF-бота на базе Stable Diffusion XL с разрешением 180p. Создатели быстро пришли к выводу, что доработка чужих моделей не приведет к желаемому результату, поскольку image-VAE не учитывает временную последовательность кадров, а без оригинальных данных плавный переход от изображений к видео невозможен. Для версии v2 команда разработала нов