Найти тему
Machine Learning Explained

Почти все о методах оптимизации нейросетей

Серия статей о почти всех используемых в современных библиотеках для нейронных сетей методах оптимизации. Начиная от просто градиентного спуска и заканчивая модификациями Adam, такими как NAdam, AdamNC, AMSGrad.

7 статей, 33 минуты, если верить оценкам medium, но кто же им поверит (умножайте примерно на 4).

1. Gradient Descent and Stochastic Gradient Descent https://bit.ly/2wqdFqM

2. Momentum and Nesterov Accelerated https://bit.ly/2Xiz4Oy

3. Adagrad https://bit.ly/2JLMoHZ

4. Adadelta and RMSProp https://bit.ly/2EFMFIb

5. RMSProp+Momentum and Adam https://bit.ly/2QwwC4r

6. Nadam https://bit.ly/2HLnKVL

7. AMSGrad and AdamNC https://bit.ly/2JSBRuT

А вот почти то же, на русском и с классными гифками https://habr.com/ru/post/318970/.

https://t.me/machine_learning_explained