Найти в Дзене
Best paper award ICML 2019
Такую награду получило две статьи. Про первую статью уже было тут. Вторая статья называется Rates of Convergence for Sparse Variational Gaussian Process Regression. Как и предполагает название, описывает она достижения в области сходимости регреcсии на основе гауссовских процессов. Гауссовские процессы часто используют для задания априорных распределения в байесовских моделях. Их плюс в том, что известно аналитическое решение для апостериорного и маргинального распределения для регрессионной модели. Их минус - в вычислительной сложности O(N³) и O(N²) по памяти, где N - количество экземпляров в данных...
6 лет назад
5 книг по ML
Классическая классика ML Pattern Recognition and Machine Learning, Bishop The Elements of Statistical Learning Классика нейронок Neural Networks and Learning Machines, Haykin Нейросети Deep Learning...
128 читали · 6 лет назад
Если байес нужен всем
Для тех, кто только начинает свой путь в байесовских методах, есть отличный курс на русском и материалы к нему. Для тех, кто уже продолжает, есть записи с летней школы Deep Bayes (на английском). И наконец,...
6 лет назад
Agile в data science
Заметка о том, что работает и не работает из практик Agile в data science. Часть 1 Часть 2 TL;DR Работает: - планирование и приоритезация - разбиение на задачи с ограничением по времени - ретроспективы и демо. Что не работает и как быть: - временные оценки - их можно заменить ограниченными по времени экспериментальными задачами - быстро меняющиеся требования - собственно использование планирования и приоритезации с фиксацией задач хотя бы на время спринта должно показать бизнесу, что работа без переключения контекста эффективнее - ожидание результата в виде кода в конце спринта - здесь поможет...
6 лет назад
Как эффективно уменьшить размер сети и оценить уверенность в предсказаниях
​​Есть такой исследователь из Оксфорда - Yarin Gal. Он занимается Bayesian Deep Learning и с 2016 года является главным организатором Bayesian Deep Learning Workshop на NeurIPS. Сквозной темой своих исследований он сам называет "понимание эмпирически разработанных техник машинного обучения". Только с начала этого года появилось десять статей с его участием arxiv. Тем не менее самой цитируемой остается статья "Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning"....
6 лет назад
Если нравится — подпишитесь
Так вы не пропустите новые публикации этого канала