Градиентный бустинг – эффективный алгоритм преобразования относительно плохих гипотез Моделей (Model) в очень хорошие. Происхождение Идея бустинга (усиления) базируется на допущении, что изменить слабый предсказывающий алгоритм возможно. Слабый алгоритм определяется как гипотеза, чьи результаты немного лучше, чем случайные. Идея усиления заключалась в том, чтобы фильтровать Наблюдения (Observation), оставляя те из них, с которыми может справиться слабый алгоритм, и сосредотачиваясь на развитии новых способностей, чтобы справиться с оставшимися трудными наблюдениями. Идея состоит в том, чтобы использовать метод слабого обучения несколько раз, чтобы получить последовательность гипотез, каждая из которых перефокусируется на примерах, которые предыдущие сочли трудными и неверно классифицированными. AdaBoost – первый бустинг-алгоритм Первой реализацией бустинга, имевшей большой успех, была AdaBoost (Adaptive Boosting). Слабые алгоритмы в AdaBoost – это Деревья решений (Decision Tree) с одни
Gradient Boosting в Машинном обучении простыми словами
9 мая 20219 мая 2021
957
3 мин