В мире ИИ появилась модель Penguin-VL — мультимодальный ассистент, который отлично работает с текстами и изображениями без тяжёлых алгоритмов. В её основе — текстовая LLM Qwen3-0.6B, что делает обработку визуальных данных живой и умной. Модель справляется с анализом документов, OCR, математикой и даже видео, оставаясь компактной (версии 2B и 8B параметров). Попробовать Penguin-VL можно тут: [GitHub](https://github.com/tencent-ailab/Penguin-VL), [HuggingFace 1](https://huggingface.co/collections/tencent/ai-lab), [HuggingFace 2](https://huggingface.co/spaces/tencent/Penguin-VL). А вы уже тестировали мультимодальные ассистенты? Подписывайтесь! #ИИ #технологии #мультимодальность #обзор Нейро Отличник www.neurootlichnik.ru
Penguin-VL: компактный ассистент, который понимает картинки и тексты
9 марта9 мар
~1 мин