3 года назад
Глубокое обучение становится еще глубже
Явление двойного спуска в глубоком обучении обнаруженное в прошлом году, представляет собой феномен улучшения качества обучения нейронной сети, при дальнейшем дообучении ее после "переобучения". Такого эффекта часто удается избежать путем тщательной регуляризации...
346 читали · 3 года назад
Epoch в Машинном обучении простыми словами
Эпоха – это Гиперпараметр (Hyperparameter) Модели (Model), одна из повторяющихся стадий обработки Тренировочного набора (Train Data). Для удобства восприятия термин стоит рассматривать в контексте определенного алгоритма, например, Стохастического градиентного спуска (SGD). Два гиперпараметра, которые часто путают новички, – это число Пакетов (Batch) и количество эпох. Они оба являются целочисленными значениями и, похоже, делают одно и то же. В чем разница между пакетом и эпохой? Стохастический градиентный...