Найти в Дзене
Kangaroo

От нейрона к нейронной сети, просто, доступно и понятно

Порою задачи, первоначально кажущиеся безнадежно сложными, имеют удивительно простое решение (хотя чаще, пожалуй, бывает наоборот) - Ник Бостром
Порою задачи, первоначально кажущиеся безнадежно сложными, имеют удивительно простое решение (хотя чаще, пожалуй, бывает наоборот) - Ник Бостром

Итак, нейрон - это компонента из которой состоит вся нервная система человека.

Ядро нейрона, оно же тело нейрона. В нем накапливается электрический заряд. Из тела нейрона имеются отростки, большие и малые.

Маленькие отростки называются дендритами. По этим отросткам сигнал переходит от других нейронов к нашему нейрону.

Большой отросток называется аксоном. По аксону нейрон передает сигнал к другим нейронам.

Место где аксон нашего нейрона соединяется с дендритом другого нейрона, называется синапсом. Синапс бывает слабым а бывает сильным, он может становиться сильнее или слабее.

Математическая модель нейрона
Математическая модель нейрона

Пороговая функция активации - по сути это функция которая принимает два значения: 0 и 1. Значение ноль принимается когда аргумент функции меньше либо равен нулю. Значение один принимается в том случае, когда аргумент функции больше ноля.

Нейронная сеть - это сложная функция от входов, параметризованная весами и смещениями(bias)
Нейронная сеть - это сложная функция от входов, параметризованная весами и смещениями(bias)

Нейронные сети состоят из:

  • входного слоя;
  • произвольного количества скрытых слоев;
  • выходного слоя;
  • набора весов и смещений между каждым слоем;
  • выбора функции активации для каждого скрытого слоя.

В качестве примера рассмотрим двухслойную нейронную сеть.

Двухслойная нейронная сеть
Двухслойная нейронная сеть

Цель обучения нейронной сети - найти набор весов и смещений, который минимизирует функцию потерь. Правильные значения для весов и смещений определяют точность предсказаний. Процесс точной настройки весов и смещений из входных данных известен как обучение нейронной сети.

Каждая итерация(эпоха) обучающего процесса состоит из следующих шагов:

  • вычисление прогнозируемого выхода, называемого прямым распространением;
  • обновление весов и смещений называемых обратным распространением(backprop).
Обучающий процесс
Обучающий процесс

Прямое распространение(feedforward) это несложное вычисление.

Кроме того, нужно оценить качество наших прогнозов, т.е. понять насколько мы далеки. Функция потерь как раз позволяет это сделать.

После того, как мы измерим ошибку нашего прогноза, нам нужно найти способ распространения обратной ошибки и обновить веса и смещения. Чтобы узнать подходящую сумму для корректировки весов и смещений, нам нужно знать производную функции потерь по отношению к весам и смещениям. Производная функции - это тангенс угла наклона функции.

Когда у нас есть производная, мы можем обновить веса и смещения, увеличив или уменьшив их. Это и есть градиентный спуск.

В итоге мы имеем вот такую нейронную сеть.

Ребят те цифры, которые говорят о количестве подписчиков радуют меня, в том случае, когда они растут. Это дает мотивацию к написанию статей. Поэтому, подписывайтесь на канал, тут интересно. И если вам понравилась статья, не забудьте поднять палец вверх и поставить лайк.

Наука
7 млн интересуются