С нетерпением возвращаюсь домой и сажусь за работу. Целую неделю я едва отрывалась от обучения моего помощника. Дни пролетали незаметно в попытках решить проблемы с распознаванием контекста в его алгоритмах. Я экспериментировала с разными архитектурами нейронных сетей - RNN, LSTM, Transformer - но каждый раз натыкалась на ошибки. То он неправильно соотносил местоимения с субъектами предложения, то путался в сложных временных конструкциях. Но я не сдавалась и продолжала искать решение. Сменялись дни и ночи, а я всё пробовала новые конфигурации нейронок и hyper-parameters. Иногда до глубокой ночи я корпела над кодом, едва не засыпая прямо за компьютером. В бесконечном цикле я тренировала рекуррентные нейронные сети на обширных датасетах естественного языка, добиваясь всё более точного предсказания следующих слов в предложении. Gated recurrent units позволяли контролировать поток контекстной информации. Я то и дело подстраивала гиперпараметры, выравнивая gradient vanishing и explosions. З