06:44
1,0×
00:00/06:44
40 тыс смотрели · 3 года назад
Архитектура GPT-2
Архитектура GPT-2 (Generative Pre-trained Transformer 2) включает в себя несколько компонентов, каждый из которых играет важную роль в генерации текста. Вот основные компоненты архитектуры GPT-2: 1. Трансформерный энкодер: трансформерный энкодер – это нейронная сеть, которая получает на вход последовательность токенов и преобразует ее в последовательность векторов признаков. Это делается с помощью множества слоев, каждый из которых выполняет множество операций, таких как многоканальное внимание и одномерная свертка. 2. Многоуровневый декодер: декодер в GPT-2 имеет несколько уровней, каждый из которых обрабатывает предыдущую часть предложения и использует ее для генерации следующего слова...
177 читали · 11 месяцев назад
Parameter-Efficient Fine-Tuning (PEFT): методы LoRA, Prefix tuning, Prompt tuning и Adapters
На сегодняшний день созданы разные большие языковые модели (LLM), которые показывают превосходные результаты, но для раскрытия их полного потенциала необходимо дообучение для точного решения конкретных задач. Традиционный метод файнтюнинга, при котором настраиваются все параметры предварительно обученной модели, становится непрактичным и вычислительно дорогостоящим при работе с современными моделями LLM. PEFT(Parameter-Efficient Fine-Tuning) представляет собой эффективный подход, позволяющий не терять...