Найти в Дзене
Умный поиск на основе контекста с использованием больших языковых моделей Llama 2 В результате выполнения всех шагов, описанных в предоставленном тексте, мы получим следующий функционал: Будет разработана система извлечения информации из PDF-документов на основе модели языка Lama 2 и библиотеки Lama Index. Система позволит загружать произвольное количество PDF-документов и извлекать текстовую информацию из них. На основе извлеченных текстов будут созданы векторные представления с помощью модуля встроенных представлений (embedding) из библиотеки Langchain. Эти представления текстов будут использованы для создания поисковых индексов. Индексы затем преобразуются в поисковый движок, к которому можно обращаться с запросами.Модель Lama 2 будет использоваться для генерации ответов на поставленные запросы к этому движку. Ответы будут создаваться на основе информации, извлеченной из загруженных PDF-документов. Таким образом, в итоге мы получим работающую систему извлечения релевантной информации из PDF в виде текстовых ответов на запросы пользователя. При этом система будет использовать мощь обученной модели языка Lama 2. boosty.to/...ink
1 год назад
Тонкая настройка инструкторской модели Mistral 7B в Colab: Руководство для начинающих
Тонкая настройка позволяет настроить модель Mistral 7B Instruct так, чтобы она ходила и говорила именно так, как нужно. Вам предстоит решить сложную задачу, связанную с ответом на вопрос, обобщением, извлечением сущностей или классификацией? Независимо от задачи, тонкая настройка может повысить производительность и результаты модели Mistral 7B Instruct. Советы по улучшению откликов моделей с помощью дополнительного контекста можно найти в моей статье о построении конвейера RAG с моделью Mistral...
310 читали · 1 год назад
PEFT: параметрически эффективная тонкая настройка моделей миллиардного масштаба на аппаратном обеспечении с малыми ресурсами
Parameter-Efficient Fine-Tuning (PEFT) — это подход к тонкой настройке предобученных моделей, который позволяет эффективно обучать только подмножество параметров, достигая при этом сопоставимой производительности со стандартной тонкой настройкой. Этот процесс может быть вычислительно затратным и времязатратным, особенно для больших моделей. PEFT сосредотачивается на обучении только наиболее важных параметров для новой задачи и обновлении только этих параметров во время настройки Существуют различные...
1 год назад
Пошаговое руководство по запуску ИИ Mistral-7b на одном GPU с помощью Google Colab
Как эффективно управлять ИИ с помощью 4-битной квантизации (с блокнотом Colab в комплекте!) . Мир больших языковых моделей (LLM) быстро развивается, постоянно появляются такие прорывные модели, как LLAMA2 и Falcon. 27 сентября прошлого года французский стартап Mistral всколыхнул мир технологий, представив свою первую модель - Mistral 7B, претендующую на звание самой мощной языковой модели для своего размера на сегодняшний день. Кроме того, Mistral AI представляет собой многообещающую возможность для Европы проложить свой собственный путь в быстро развивающейся области искусственного интеллекта...
186 читали · 1 год назад
Как эффективно тонко настроить языковую модель для финансов? Используй современные методы вроде LoRA и PEFT. Позволяют быстро адаптировать модель при сохранении конфиденциальности данных. Пример на Mistral 7B в Colab boosty.to/...ink
1 год назад
boosty.to/...ink Узнайте, как легко настроить новейшую языковую модель Mistral 7B на CPU или GPU с помощью квантования GGUF и GPTQ. Проверьте разницу в скорости на примере творческих и других задач. Используйте бесплатный Google Colab для тестирования.
1 год назад
boosty.to/...ink Private GPT: Тонкая настройка LLM на корпоративных данных
1 год назад
Я в шоке от новой модели Microsoft "AI Agent Foundation Model"
Компания Microsoft представила интригующее творение: Interactive Agent Foundation Model. Источник: https://arxiv.org/pdf/2402.05929.pdf Этот первый выпуск, сопровождаемый заголовком, в котором говорится о появлении агентного ИИ как многообещающего пути к искусственному интеллекту общего назначения (ИИОН), посвящен человекоподобным когнитивным способностям и агентам ИИ. Рисунок 1. Обзор системы агентного ИИ, которая может воспринимать и действовать в различных областях и приложениях. Агентный ИИ становится перспективным направлением развития искусственного общего интеллекта (ИОИ)...
1 год назад
Open Source LLM SQL Coder побеждает GPT-4? Все, что вам нужно знать!
Наконец-то это случилось! Модель с открытым исходным кодом, прошедшая тонкую настройку, стала лучшей моделью Coding LLM, опередив GPT-4! Все, что вам нужно знать! Новая версия, основанная на CodeLlama 70B Что такое Code Llama? 30 января компания Meta объявила о выпуске Code Llama: "Code Llama - это модель, ориентированная на программирование, разработанная на платформе Llama 2. Ее основная цель - оптимизировать и ускорить рабочие процессы разработчиков, а также облегчить обучение кодингу. Эта модель способна создавать код, а также вести дискуссии вокруг кода на естественном языке...
1 год назад
Полный цикл обучения GPT-5 запущен
Мы можем ожидать его выхода в ноябре, возможно, в 2-ю годовщину запуска легендарного Chat GPT. В аналогичные сроки мы также получим Gemini 2 Ultra, LLaMA-3, Claude-3, Mistral-2 и многие другие новаторские модели. (Gemini от Google, похоже, уже составляет жесткую конкуренцию GPT-4 turbo) Практически очевидно, что GPT-5 будет выпущен поэтапно, при этом промежуточные контрольные точки будут устанавливаться во время обучения модели. Само обучение может занять 3 месяца, а еще 6 месяцев - тестирование безопасности...
133 читали · 1 год назад
В чем отличие AI (ИИ) от ML и LLM
Искусственный интеллект (ИИ) — это широкий термин, который охватывает различные технологии и методы, направленные на создание машин, способных выполнять задачи, требующие человеческого интеллекта. Это может включать понимание естественного языка, распознавание образов, принятие решений и многое другое. ИИ может использовать различные подходы, включая правила, логику, алгоритмы оптимизации и машинное обучение. Машинное обучение (ML) — это подраздел ИИ, который фокусируется на разработке алгоритмов...
705 читали · 1 год назад
Wio Terminal
Wio Terminal - это идеальный инструмент для начала работы с IoT (интернет вещей) и TinyML. Он разработан Seeed Studio и хорошо поддерживается различными фреймворками для TinyML. В Wio Terminal используется микроконтроллер ATSAMD51P19 с ARM Cortex-M4F, работающий на частоте на частоте 120 МГц (повышается до 200 МГц), 4 МБ внешней флэш-памяти и 192 КБ оперативной памяти. Беспроводная связь с поддержкой Realtek RTL8720DN. Совместим с Arduino и MicroPython. Он поддерживает Bluetooth и Wi-Fi, обеспечивая прочную основу для проектов IoT...
2 года назад