Последний сложный 😁для понимания пост на этой неделе. Ниже - список основных алгоритмов обучения нейронных сетей с учителем. 1️⃣ Алгоритмы локальной оптимизации с вычислением частных производных первого порядка: - градиентный алгоритм (метод наискорейшего спуска), - алгоритм обратного распространения ошибки (BackPropagation) (разобрали в предыдущем посте) - методы с одномерной и двумерной оптимизацией целевой функции в направлении антиградиента, - метод сопряженных градиентов, - методы, учитывающие направление антиградиента на нескольких шагах алгоритма. 2️⃣ Алгоритмы локальной оптимизации с вычислением частных производных первого и второго порядка: - метод Ньютона, - методы оптимизации с разреженными матрицами Гессе, - квазиньютоновские методы, - метод Гаусса-Ньютона, - метод Левенберга-Марквардта и др. 3️⃣ Стохастические алгоритмы оптимизации: - поиск в случайном направлении, - имитация отжига, - метод Монте-Карло (численный метод статистических испытаний). 👉️️️️ @aisimple
Поговорим о градиенте --- основном инструменте для оптимизации функций двух и более переменных и вообще очень полезной вещи в математической физике. Пусть дана гладкая функция двух переменных: f(x,y). Надо найти точки (x,y), в которых f принимает максимальное (или минимальное) значение.
Функция двух переменных --- это рельеф местности, с холмами и впадинами, оврагами и пиками...