В llama.cpp завезли веб интерфейс Может поглощать текстовые документы, pdf file (при необходимости может обрабатывать PDF-файлы как изображения, если модель ИИ поддерживает эту возможность) Принимает изображения, если модель используемая поддерживает визуальный ввод, можно совмещать контекст img+txt Также поддерживается параллельное ведение чатов Предпросмотр веб кода и визуализация математических вычислиней Появились удобные настройки внутри интерфейса Работает и на пк и на телефоне https://github.com/ggml-org/llama.cpp/discussions/16938 По мимо этого в llama.cpp теперь доступен Qwen3-VL GGUF-веса для версий от 2B до 235B, работает полностью локально HF pr