308 читали · 3 года назад
BERT в Машинном обучении простыми словами
BERT (англ. Bidirectional Encoder Representations from Transformers – двунаправленный кодировщик представлений трансформера) — это языковая модель, основанная на архитектуре Трансформер (Transformer), предназначенная для предобучения языковых Представлений (Representation) с целью их последующего применения в широком спектре задач Обработки естественного языка (NLP). Результаты исследоваий показывают, что языковая модель с двунаправленным обучением может иметь более глубокое понимание языкового контекста, чем однонаправленные...
Кратковременная классификация текста с использованием прототипных сетей и BERT
Мотивация Причина, по которой я решил написать статью по этой теме, заключается в том, что вы найдете очень мало информации о реализации классификации с использованием нескольких кадров с использованием прототипных сетей или других подходов с нуля на текстовых данных...