Итак,начнем-с.Говорят нейросеть это много маленьких регрессоров(те что анализируют взаимоcвязь своих же параметров).Это то что называется взвешиванием сигналов, типа sig1*weight1+sig2*weight2+sig3*weight3,в регрессорах weight называются параметрами модели,а sig факторами для модели.Из-за того что мы пропускаем такой результат через функцию активации,которая имеет вид не линнии,а кривой,можно 'стекать'(соединять) слои(матрицы).Сокращаем разницу(Евклидово расстояния-для нас просто разница между значениями-частный случай)между тем что отдала сеть(теория-сеть пытается отыскать сложные законы между поступающими данными) и практикой(говорят условное математическое ожидание)то есть то что называют ответами от учителя.Итак сокращаем,должны найти минимуму такой функции: y=loss_func(R(Z(X,W),C)), где y так называемая функция потерь(у простого регрессора это по другому), Z -взвесили сигналы X-сигнал,фактор С-это конкретное выражение функции потерь, С=1/2*(y:=<что отдал последний ряд нейро