1 часть, 2 часть, 3 часть, 4 часть, 5 часть... Перейдём от отдельных деревьев к целым лесам. Для начала импортируем эти леса. from sklearn.ensemble import RandomForestClassifier Ну и сразу создадим соответствующий классификатор. clf = RandomForestClassifier() Можно считать, что ты создали лес, теперь нам надо подобрать ему оптимальные параметры и обучить его. Мы конечно можем подбирать параметры через for, но это будет довольно долго, к тому же есть довольно удобный GridSearchCV, так что не будем мучиться и просто импортируем его. from sklearn.model_selection import GridSearchCV Теперь нам надо определиться с тем какие параметры мы будем подбирать. Так как лес это куча деревьев мы естественно будем подбирать кол-во деревьев( n_estimators ) которые у нас будут в этом лесу. Помимо этого нам надо бы изменить критерий( criterion ) с gini на entropy, но сейчас мы их сравним чтобы посмотреть какой более эффективен. Помимо этого пройдёмся по максимальной глубине дерева( max_depth ), минима
Обучение на Титанике. Ну и нафиг нам лес если есть дерево?
17 сентября 201917 сен 2019
22
1 мин