ТВиМС. 3 Формула полной вероятности. Теорема Байеса. Схема Бернулли
6. "Нелинейная регрессия"
Регре́ссия (лат. regressio — обратное движение, отход) в теории вероятностей и математической статистике — односторонняя стохастическая зависимость (случайная, недетерминированная), устанавливающая соответствие между случайными переменными, то есть математическое выражение, отражающее связь между зависимой переменной у и независимыми переменными х при условии, что это выражение будет иметь статистическую значимость. В отличие от чисто функциональной зависимости y=f(x), когда каждому значению независимой...
Что такое линейная регрессия?
Линейная регрессия - это алгоритм, используемый для прогнозирования или визуализации отношений между двумя различными признаками / переменными . В задачах линейной регрессии рассматриваются два вида переменных: зависимая переменная и независимая переменная . Независимая переменная - это переменная, которая стоит сама по себе, и не подвержена влиянию другой переменной. При настройке независимой переменной уровни зависимой переменной будут колебаться. Зависимая переменная - это переменная, которая изучается, и это то, что регрессионная модель решает или пытается предсказать...