Transformer 2017 — это та самая архитектура, которая запустила всю современную эру больших языковых моделей (ChatGPT, Grok, Claude, Gemini, Llama и т.д.). Её представили в знаменитой статье «Attention Is All You Need» (июнь 2017), авторы — команда из Google (Ashish Vaswani и ещё 7 человек). До 2017 года для работы с текстом (перевод, генерация, понимание) использовали в основном RNN / LSTM / GRU: Transformer сказал: «Забудьте про последовательность, давайте просто внимание (attention) — и всё». Attention Is All You Need = вся модель построена только на механизме внимания (self-attention), без рекуррентных слоёв и свёрток. Модель видит все слова сразу и сама решает, на какие из них обратить внимание при обработке каждого слова. Подписывайтесь на канал!
Transformer 2017 (ИИ (Искусственный интеллект) от простого к сложному. Серия статей)
2 дня назад2 дня назад
2 мин