Найти в Дзене
Дмитрий Шаров

Как нейросети прошли путь от «игрушек» 1950‑х до ChatGPT

Представьте: 1958 год, мир ещё не слышал о персоналках, а Фрэнк Розенблатт уже показывает миру перцептрон — первую нейросеть. По нынешним меркам это что‑то вроде калькулятора рядом с суперкомпьютером, но тогда это было сродни магии.
Давайте пройдёмся по хронологии — без скучных дат и сухих фактов.
Акт 1. Рождение идеи (1940–1950‑е): первые шаги в темноте
Всё началось не с кода, а с мозга. В 1943

Представьте: 1958 год, мир ещё не слышал о персоналках, а Фрэнк Розенблатт уже показывает миру перцептрон — первую нейросеть. По нынешним меркам это что‑то вроде калькулятора рядом с суперкомпьютером, но тогда это было сродни магии.

Давайте пройдёмся по хронологии — без скучных дат и сухих фактов.

Акт 1. Рождение идеи (1940–1950‑е): первые шаги в темноте

Всё началось не с кода, а с мозга. В 1943 году нейропсихолог Уоррен Мак-Каллок и математик Уолтер Питтс придумали модель искусственного нейрона. По сути, они взяли биологию и обернули её в математику: нейрон либо «да» (возбуждён), либо «нет» (спокоен).

А в 1949‑м Дональд Хебб подкинул идею, которая до сих пор лежит в основе обучения нейросетей: «Нейроны, активирующиеся вместе, связываются вместе». Проще говоря, чем чаще два нейрона работают синхронно, тем крепче их связь. Это как выучить песню — чем чаще поёшь, тем лучше помнишь.

Акт 2. Звезда и падение перцептрона (1958–1969): от триумфа к забвению

В 1958 году Фрэнк Розенблатт презентует перцептрон. Устройство могло:

отличать кошку от собаки на чёрно‑белом фото;

распознавать буквы и простые фигуры;

учиться на своих ошибках.

В 1960‑м появился «Марк‑1» — нейрокомпьютер на лампах и резисторах. По нынешним меркам — музейный экспонат, но тогда это был прорыв.

Но сказка быстро закончилась. В 1969 году Мински и Пейперт выпустили книгу «Перцептроны», где доказали: однослойные сети не справятся с нелинейными задачами. Например, не поймут, что «XOR» (исключающее ИЛИ) нельзя решить без дополнительных слоёв. Финансирование урезали, интерес угас — началась первая «зима ИИ».

Акт 3. Второе дыхание (1980‑е): возвращение блудного алгоритма

В 1986 году случилось чудо — Дэвид Румельхарт, Джеффри Хинтон и Рональд Уильямс переоткрыли метод обратного распространения ошибки.

Как это работает? Представьте, что нейросеть — ученик, решающий задачу. Она делает предположение, сравнивает с правильным ответом, видит ошибку и корректирует «веса» связей между нейронами. Чем больше примеров — тем точнее результат.

-2

Проблема? Вычислительных мощностей всё ещё не хватало. Компьютеры тех лет были медленными, дорогими, а данные — разрозненными.

Акт 4. Эра ренессанса (2000‑е — наши дни): взрыв возможностей

Три фактора запустили революцию:

GPU и TPU. Игровые видеокарты, созданные для графики в играх, оказались идеальны для параллельных вычислений нейросетей.

Большие данные. Соцсети, онлайн‑архивы, базы изображений дали нейросетям миллиарды примеров для обучения.

Алгоритмы нового поколения. Глубокое обучение, генеративно‑состязательные сети (GAN), трансформеры.

Ключевые вехи:

2012 год: AlexNet побеждает в ImageNet с 16,4% ошибок — в два раза точнее предшественников.

2007 год: Джеффри Хинтон вводит термин «глубокое обучение» — нейросети учатся на десятках слоёв.

2020 год: GPT‑3 с 175 млрд параметров пишет тексты, переводит языки, объясняет код.

2023–2025 годы: GPT‑4 и GPT‑5 демонстрируют почти человеческое понимание контекста и логики.

Чем старые нейросети отличаются от современных?

Давайте сравним, как изменились нейросети за 70 лет — словно смотрим на эволюцию смартфона от Nokia 3310 до iPhone 15.

Критерий Тогда (1950–1980‑е) Сейчас (2020‑е)

Архитектура 1–2 слоя нейронов. Перцептрон — как калькулятор: считает, но не думает.

-3

Сотни слоёв. CNN (свёрточные) для фото, RNN (рекуррентные) для текста, трансформеры для всего сразу.

Данные

Десятки примеров. Обучали на ручных наборах: нарисовали 10 кругов — сеть их запомнила. Миллиарды примеров. GPT‑4 училась на 45 Тб текста — это все книги в вашей библиотеке, умноженные на 1 000.

Железо

Лампы, аналоговые компьютеры. IBM 704 делал несколько тысяч операций в секунду.

GPU/TPU.

Триллионы операций в секунду — как если бы каждый человек на Земле решал по задаче каждую секунду.

Что умеют

Распознавать линии, круги, простые буквы. Генерировать фото, писать сценарии, ставить диагнозы, играть в шахматы на уровне гроссмейстера.

Где применяют

Лаборатории, университеты. Везде: от TikTok (рекомендации) до скорой помощи (анализ снимков).

Что дальше?

Мы уже видим, как нейросети:

создают фильмы по сценарию за час;

проектируют лекарства от редких болезней;

учат языки за неделю.

Но главный вопрос — не «что они могут?», а «как мы будем с этим жить?». Нейросети больше не «игрушки учёных» — они меняют экономику, образование, искусство. И этот фильм ещё не закончен.

А вы уже используете нейросети в работе или жизни? Делитесь в комментариях — обсудим, куда приведёт нас эта технология!

P.S. Если хотите разбор конкретной нейросети (Midjourney, ChatGPT, Stable Diffusion) — пишите, сделаю отдельный выпуск!

#нейросети

#ИИ

#искусственныйинтеллект

#машинноеобучение

#AI