1943 год: Уоррен Маккаллок и Уолтер Питтс предложили первую математическую модель нейрона — простейшего вычислительного элемента, имитирующего работу биологического нейрона. Модель описывалась логической функцией: y={1,0,если ∑wixi≥θиначе где wi — веса связей, xi — входные сигналы, θ — порог активации. 1958 год: Фрэнк Розенблатт создал перцептрон — первую обучаемую нейросеть. Она могла: Ограничения эпохи: 1986 год: появление метода обратного распространения ошибки (backpropagation), который позволил обучать многослойные сети. Ключевая формула градиентного спуска: wij=wij−η∂wij∂E, где η — скорость обучения, E — функция ошибки. 1990‑е: развитие алгоритмов машинного обучения (SVM, деревья решений), которые на время вытеснили нейросети из-за лучшей интерпретируемости и меньших требований к вычислительным ресурсам. 2006 год: Джеффри Хинтон вводит термин «глубокое обучение» (deep learning) и предлагает алгоритмы предобучения сетей, что решило проблему исчезающих градиентов. Ключев
Эволюция нейросетей и ИИ: от скромных истоков до технологической революции
22 ноября 202522 ноя 2025
3 мин