147 прочтений · 5 лет назад
Иллюстрированный трансформатор
Сегодня мы рассмотрим модель Трансформатора, которая использует внимание для повышения скорости, применяемой для обучения моделей. Трансформаторы превосходят модель нейронного машинного перевода Google в решении конкретных задач. Это, на самом деле, рекомендация Google Cloud в качестве эталонной модели для их приложения TPU. Итак, давайте рассмотрим то, как функционирует эта модель. Впервые Трансформатор был предложен в статье «Attention is All You Need». Его реализация на TensorFlow доступна как часть пакета Tensor2Tensor...