1 часть, 2 часть, 3 часть, 4 часть, 5 часть... Ну а сразу после отдельного дерева и леса мы попробуем реализовать логистическую регрессию. Почему не Гаус, не Ада,а именно регрессия? На сайте sklearn имеется замечательное сравнение классификаторов, но почему-то среди них нет логистической регрессии и на мой взгляд было бы довольно интересно сравнить как эта регрессия справится с предсказанием по сравнению с деревьями. В качестве штрафа(penalty) мы возьмём l2. Solver не будем оставлять по умолчанию и возьмём сразу все. Максимальное кол-во итераций возьмём от 50 до 150 с шагом 50. С возьмём список от 0.1 до 2.1 с шагом 0.4. Естественно не забудем про random_state. Ну и по итогу у нас получилось всё как-то так. clf = LogisticRegression(random_state=35, penalty='l2') parametrs = {'C': np.arange(0.1, 2.2, 0.4), 'solver': ['newton-cg', 'lbfgs', 'liblinear', 'sag', 'saga'], 'max_iter': range(50, 151, 50)} И теперь по score мы получим 0.