Найти в Дзене
#convert_to

Заметка о машинном обучении на этой неделе будет короткой.

Заметка о машинном обучении на этой неделе будет короткой. После изучения случайного леса взяла тему градиентного бустинга, понравилось. Основа градиентного бустинга - последовательное обучение моделей на данных, с уменьшением ошибок, полученных предыдущей моделью. У такого метода для меня есть очевидные плюсы и минусы. Из плюсов - скорость вычислений и большая точность при соразмерных затратах времени на улучшение модели. Сложилось впечатление, что базовый градиентный бустинг работает также, как прокачанный случайный лес. То есть если прокачать градиентный бустинг, будет еще лучше. Из минусов - достаточно проблематично отловить измененные параметры на выходе из-за использования отдельной библиотеки, в цикл for параметры не впихнешь и принтом метрики не выведешь. Ну и под капот модели залезть пока сложно: сказали, что градиентный бустинг работает так, параметры вводить такие, а проверить так ли это внутри я пока не могу. Ну или не хочу, что тоже может быть. Еще наличествуют патетичес

Заметка о машинном обучении на этой неделе будет короткой.

После изучения случайного леса взяла тему градиентного бустинга, понравилось. Основа градиентного бустинга - последовательное обучение моделей на данных, с уменьшением ошибок, полученных предыдущей моделью. У такого метода для меня есть очевидные плюсы и минусы. Из плюсов - скорость вычислений и большая точность при соразмерных затратах времени на улучшение модели. Сложилось впечатление, что базовый градиентный бустинг работает также, как прокачанный случайный лес. То есть если прокачать градиентный бустинг, будет еще лучше. Из минусов - достаточно проблематично отловить измененные параметры на выходе из-за использования отдельной библиотеки, в цикл for параметры не впихнешь и принтом метрики не выведешь. Ну и под капот модели залезть пока сложно: сказали, что градиентный бустинг работает так, параметры вводить такие, а проверить так ли это внутри я пока не могу. Ну или не хочу, что тоже может быть.

Еще наличествуют патетические восклицания о математике в машинном обучении, чрезмерное использование которой в некоторых статьях вызывает у меня панические атаки. Тут я плавно перехожу от депрессии к принятию. Если сильно непонятная математика - можно поискать базовые разборы и понять общий принцип (вот тут, например, разбор на пальцах функции потерь и немного градиентного бустинга https://nuancesprog.ru/p/16046/). Если чувствую в себе силы, залезаю в учебник Яндекса (https://ml-handbook.ru/). С последним лично я уже трижды останавливалась на втором пункте первой главы, пока не удосужилась внимательнее вчитаться в термины. Теперь тоже могу сказать, что штука хорошая и понятная. А вообще это свидетельствует о новом уровне - общие статьи по МЛ мне уже не так интересны, и я копаю дальше, статистически увеличивая процент математики в материале.

#ML #путь_дао_саентиста