BERT (англ. Bidirectional Encoder Representations from Transformers – двунаправленный кодировщик представлений трансформера) — это языковая модель, основанная на архитектуре Трансформер (Transformer), предназначенная для предобучения языковых Представлений (Representation) с целью их последующего применения в широком спектре задач Обработки естественного языка (NLP). Результаты исследоваий показывают, что языковая модель с двунаправленным обучением может иметь более глубокое понимание языкового контекста, чем однонаправленные...
https://blogs.nvidia.com/blog/2019/08/19/what-is-conversational-ai/ Понимание естественного языка в реальном времени изменит наше взаимодействие с интеллектуальными машинами и приложениями. Август 19, 2019 от Sid Sharma Для качественного разговора между человеком и машиной ответы должны быть быстрыми, разумнымии и естественными. Но до сих пор разработчики нейронных сетей с языковой обработкой, которые обеспечивают речевые приложения реального времени, столкнулись с неудачным компромиссом: будьте быстры, и вы жертвуете качеством ответа; выработайте разумный ответ, и вы будете слишком медленными...