Природные среды имеют временную структуру в различных временных масштабах. Это свойство отражается в биологическом обучении и памяти, но обычно не в системах машинного обучения. Мы продвигаем многомасштабный метод обучения, в котором каждый вес в нейронной сети разлагается как сумма весов с разной скоростью обучения и распада. Таким образом, знания распределяются по разным временным шкалам, что позволяет быстро адаптироваться к изменениям задач, избегая катастрофических помех. Во-первых, мы доказываем, что предыдущие модели, которые обучаются в нескольких временных масштабах, но со сложной связью между временными масштабами, эквивалентны многомасштабному обучению с помощью репараметризации, которая устраняет эту связь. Тот же анализ дает новую характеристику импульсного обучения как быстрого веса с отрицательной скоростью обучения. Во-вторых, мы выводим модель байесовского вывода по шуму 1 / f, обычному временному шаблону во многих областях онлайн-обучения, который включает автокорреля