🌟 Lynx v1.1: Модели c 8B и 70B параметрами для обнаружения галлюцинаций RAG. LYNX - первая модель обнаружения галлюцинаций с открытым исходным кодом. Она представляет собой результат тонкой настройки Llama-3-70B-Instruct на комплексном датасете из разных областей, включая финансы и медицину, с акцентом на сложные сценарии реальных запросов и инференса. Данные обучения включают примеры из RAGTruth, DROP, CovidQA и PubMedQA, с 300 образцами на источник, предварительно прошедшими perturbed-обработку для создания "галлюцинирующих" ответов. Процесс обучения использовал цепочку мышления с GPT-4о для улучшения возможностей рассуждения. Были обучены два варианта моделей: Lynx 70B и Lynx 8B. Для использования в Ollama, llama.cpp и LM Studio были созданы квантированные 4-bit GGUF версии моделей Lynx 8B и 70B соответственно. Чтобы облегчить оценку работы модели, разработчики предлагают HaluBench, бенчмарк галлюцинаций, содержащий 15 000 маркерных образцов, полученных из датасетов: DROP, FinanceBench, COVID-QA, PubMedQA, HaluEval и RAGTruth. Для моделирования галлюцинации, HaluBench использует технику perturbed, при которой генерируются семантически измененные ответы, сохраняя минимальные отличия от первоначального ответа. Этот метод выполняет генерацию сложных примеров, которые могут быть неправильно истолкованы как верные, несмотря на несоответствия контексту. ⚠️ Lynx фокусируется исключительно на оценке внутренней галлюцинации, которая оценивает согласованность сгенерированного текста с предоставленным контекстом. Оценка внешних факторов галлюцинаций выходит за рамки функционала модели. Lynx может быть запущен несколькими способами: с помощью Ollama, llama.cpp, LM Studio, в виде локального инференса или как интеграция с NVIDIA NeMo-Guardrails: 🟢инструкцию по запуску для llama.cpp можно найти на странице GGUF версии модели на HF; 🟢инструкция по запуску для Ollama - на странице проекта; 🟢инструкция по интеграции с NVIDIA NeMo-Guardrails в репозитории NeMo-Guardrails. ▶️Локальный запуск (инференс и тренировка): # Install local environment: python -m venv .venv source .venv/bin/activate pip install --upgrade pip pip install poetry==1.8.1 poetry update poetry install # Install pre-commit in your teminal and run: pre-commit install #Copy .env.example to .env and replace values for environmental variables. #Установки Inference и Finetuning на mcli и vLLM описаны в файлах: # mcli/mcli_finetuning.md # mcli/mcli_inference.md # mcli/vllm_inference.md 📌Лицензирование : СС-BY-NC-4.0 🟡Страница проекта 🟡Модели на HF 🟡Arxiv 🟡Датасет HaluBench на HF 🟡Сообщество в Discord 🟡Demo на HF 🖥Github [ Stars: 18 | Issues: 0 | Forks: 1] @machinelearning #AI #Lynx #RAG #HallucinationDetection #LLM
Рано или поздно любой из начинающих изучать Линукс сталкивается с такой задачей как сборка (компиляция) какого-либо пакета (программы) из исходных кодов (source code). Такая необходимость возникает довольно часто при обновлении программного продукта, либо его установки из CVS источников, либо вообще есть программные продукты которые не распространяются в package (rpm, deb) формате, а только в исходных кодах. По сути дела задача довольно тривиальная и сводится, как правило, к набору команд ...