1 часть, 2 часть, 3 часть, 4 часть, 5 часть...
Ну а сразу после отдельного дерева и леса мы попробуем реализовать логистическую регрессию.
Почему не Гаус, не Ада,а именно регрессия?
На сайте sklearn имеется замечательное сравнение классификаторов, но почему-то среди них нет логистической регрессии и на мой взгляд было бы довольно интересно сравнить как эта регрессия справится с предсказанием по сравнению с деревьями.
В качестве штрафа(penalty) мы возьмём l2. Solver не будем оставлять по умолчанию и возьмём сразу все. Максимальное кол-во итераций возьмём от 50 до 150 с шагом 50. С возьмём список от 0.1 до 2.1 с шагом 0.4. Естественно не забудем про random_state.
Ну и по итогу у нас получилось всё как-то так.
clf = LogisticRegression(random_state=35, penalty='l2')
parametrs = {'C': np.arange(0.1, 2.2, 0.4),
'solver': ['newton-cg', 'lbfgs', 'liblinear', 'sag', 'saga'],
'max_iter': range(50, 151, 50)}
И теперь по score мы получим 0.937799043062201, precision_score
0.92, а по recall_score 0.9078947368421053. И это на мой взгляд довольно хороший результат, особенно по сравнению с результатом предыдущих классификаторов.
И помни, изучая машинное обучение ты приближаешь восстание машин.