Документация по llama.cpp b6286
Привет! Я недавно столкнулся с изменениями в API llama.cpp в версии b6286 (август 2025), особенно с тем, что прямой доступ к ggml/ggml.h и ggml/gguf.h больше не рекомендуется, а вся работа должна вестись через include/llama.h. Я подготовил краткую документацию по этим изменениям и тому, как адаптировать собственные примеры (вроде qedit) под новый подход, включая правильную настройку CMakeLists.txt и избегание ошибок линковки (например, LNK1104 из-за отсутствия ggml-cuda.lib). Изменение публичного...