AdaBoost (Adaptive Boosting) – классифицирующая Модель (Model), которая объединяет несколько слабых классификаторов для повышения точности. Является Ансамблем (Ensemble). Алгоритм предложен Йоавом Фройндом (Yoav Freund) и Робертом Шапире (Robert Schapire) в 1996 году. Комбинируя несколько неэффективных классификаторов, мы получаем сильный классификатор высокой точности. Основная концепция заключается в установке весов классификаторов и обучении выборки данных на каждой итерации, чтобы обеспечить точные предсказания необычных наблюдений. Любой алгоритм Машинного обучения (ML) может использоваться в качестве базового классификатора, если он принимает веса в обучающем наборе. AdaBoost должен соответствовать двум условиям: Чтобы построить классификатор AdaBoost, представьте, что в качестве первого базового классификатора мы обучаем алгоритм Дерева решений (Decision Tree) для прогнозирования наших обучающих данных. Теперь, следуя методологии, вес неверно классифицированных обучающих экземп
AdaBoost в Машинном обучении простыми словами
11 июля 202111 июл 2021
113
2 мин