XGBoost — это opensource-библиотека, обеспечивающая высокопроизводительную реализацию Деревьев решений (Decision Tree). В этой статье узнаем, как работает Градиентный бустинг (GB), а затем рассмотрим пример на Python. В обычном Машинном обучении (ML), таком как дерево решений, мы просто обучаем Модель (Model) на наборе данных и используем ее для прогнозирования: Мы можем немного поэкспериментировать с параметрами или дополнить данные, но в итоге мы по-прежнему используем ту же модель. Даже если мы строим Ансамбль (Ensemble) – комбинацию моделей, все модели обучаются по отдельности. Бустинг же использует итеративный подход: технически это по-прежнему ансамбль, но при этом каждая новая модель обучается исправлять ошибки, допущенные предыдущими. Модели добавляются последовательно до тех пор, пока дальнейшие улучшения не станут невозможными. Gradient Boosting — это подход, при котором новые модели обучаются прогнозировать ошибки предыдущих моделей. Давайте посмотрим на XGBoost в деле. Для
XGBoost в Машинном обучении простыми словами
18 февраля 202318 фев 2023
736
3 мин