Найти в Дзене
Умный поиск на основе контекста с использованием больших языковых моделей Llama 2 В результате выполнения всех шагов, описанных в предоставленном тексте, мы получим следующий функционал: Будет разработана система извлечения информации из PDF-документов на основе модели языка Lama 2 и библиотеки Lama Index. Система позволит загружать произвольное количество PDF-документов и извлекать текстовую информацию из них. На основе извлеченных текстов будут созданы векторные представления с помощью модуля встроенных представлений (embedding) из библиотеки Langchain. Эти представления текстов будут использованы для создания поисковых индексов. Индексы затем преобразуются в поисковый движок, к которому можно обращаться с запросами.Модель Lama 2 будет использоваться для генерации ответов на поставленные запросы к этому движку. Ответы будут создаваться на основе информации, извлеченной из загруженных PDF-документов. Таким образом, в итоге мы получим работающую систему извлечения релевантной информации из PDF в виде текстовых ответов на запросы пользователя. При этом система будет использовать мощь обученной модели языка Lama 2. boosty.to/...ink
1 год назад
Тонкая настройка инструкторской модели Mistral 7B в Colab: Руководство для начинающих
Тонкая настройка позволяет настроить модель Mistral 7B Instruct так, чтобы она ходила и говорила именно так, как нужно. Вам предстоит решить сложную задачу, связанную с ответом на вопрос, обобщением, извлечением сущностей или классификацией? Независимо от задачи, тонкая настройка может повысить производительность и результаты модели Mistral 7B Instruct. Советы по улучшению откликов моделей с помощью дополнительного контекста можно найти в моей статье о построении конвейера RAG с моделью Mistral...
312 читали · 1 год назад
PEFT: параметрически эффективная тонкая настройка моделей миллиардного масштаба на аппаратном обеспечении с малыми ресурсами
Parameter-Efficient Fine-Tuning (PEFT) — это подход к тонкой настройке предобученных моделей, который позволяет эффективно обучать только подмножество параметров, достигая при этом сопоставимой производительности со стандартной тонкой настройкой. Этот процесс может быть вычислительно затратным и времязатратным, особенно для больших моделей. PEFT сосредотачивается на обучении только наиболее важных параметров для новой задачи и обновлении только этих параметров во время настройки Существуют различные...
1 год назад
Пошаговое руководство по запуску ИИ Mistral-7b на одном GPU с помощью Google Colab
Как эффективно управлять ИИ с помощью 4-битной квантизации (с блокнотом Colab в комплекте!) . Мир больших языковых моделей (LLM) быстро развивается, постоянно появляются такие прорывные модели, как LLAMA2 и Falcon. 27 сентября прошлого года французский стартап Mistral всколыхнул мир технологий, представив свою первую модель - Mistral 7B, претендующую на звание самой мощной языковой модели для своего размера на сегодняшний день. Кроме того, Mistral AI представляет собой многообещающую возможность для Европы проложить свой собственный путь в быстро развивающейся области искусственного интеллекта...
186 читали · 1 год назад
Как эффективно тонко настроить языковую модель для финансов? Используй современные методы вроде LoRA и PEFT. Позволяют быстро адаптировать модель при сохранении конфиденциальности данных. Пример на Mistral 7B в Colab boosty.to/...ink
1 год назад
Если нравится — подпишитесь
Так вы не пропустите новые публикации этого канала