Найти в Дзене
Владимир Евланов

Мозг VS Нейросеть, в чем разница?

Оглавление

В середине XX века компьютеры называли «электронными мозгами» — и в этом было не только восхищение, но и надежда. Казалось, что если машина может быстро считать, то однажды она научится и думать. Однако вскоре стало понятно: даже самые быстрые вычисления не делают компьютер мыслящим в человеческом смысле. Он может решать уравнения, распознавать лица, даже поддерживать беседу — но в задачах, где требуется гибкость, мотивация и здравый смысл, он по-прежнему зависит от человека. Почему? Разберемся с этим вопросом поподробнее, заодно коснувшись истории появления нейросетей и их сравнения с настоящим мозгом.

Все оказалось не так просто

Всё дело в устройстве классического компьютера. Он построен как фабрика: есть процессор, который выполняет инструкции, и есть память, где эти инструкции хранятся. Главным преимуществом классического компьютера является скорость — особенно с развитием технологий транзисторов и законом Мура, постулирующий, что количество транзисторов на кристалле процессора удваивается примерно каждые два года (по последним подсчетам он уже не актуален, а скорость технологического развития вышла за его пределы). Это позволяет уменьшать размеры деталей, повышать тактовую частоту и, как следствие, ускорять вычисления. Благодаря этому компьютеры стали мощными инструментами для обработки больших объёмов данных и сложных математических операций.

Но у мозга всё не так.

У нас нет «центрального процессора» и отдельных частей, которые строго и ограниченно выполняет роль памяти, видеокарты, оперативной памяти и так далее. Наш мозг состоит из 86 миллиардов нейронов, которые работают одновременно, взаимодействуя напрямую друг с другом. Такой подход — параллельный, и он не требует, чтобы всё шло строго одному пути. Мы постоянно обновляем инструкции для самых разных ситуаций, придумывая все более и более эффективные. Мозг не заинтересован в том, чтобы знать что-то раз и навсегда, следуя этому как прописной и неизменной истине. И это не вопрос его "личного выбора", а прагматическая необходимость: мы выживаем благодаря умению адаптироваться к изменяющимся условиям среды. И при таком раскладе, живя в окружении постоянных изменений, лучше справляется тот, кто гибок, а не просто четко и постоянно выполняет один и тот же алгоритм.

Более того, эта среда — всё чаще неприродная, а созданная самими людьми. Мы живём внутри искусственных конструкций: социальных норм, правовых систем, языков, культур, традиций, символов, научных понятий. Это сложные, подвижные структуры, которые мы не просто воспринимаем — мы в них встраиваемся, мы в них ориентируемся и учимся с ними взаимодействовать. Мы адаптируемся не только к погоде и ландшафту, как другие виды, а к смысловым и культурным ландшафтам — к миру, который сами же и построили.

Такую способность к адаптации невозможно «запрограммировать» заранее: она требует гибкости, способности замечать изменения, делать выводы из прошлого опыта, предсказывать новое поведение среды. Всё это мы обычно называем обучением. Но не просто в контексте накопления фактов, а активным, направленным изменением внутренней модели мира. Именно поэтому, когда начались первые попытки создать искусственный интеллект, стало ясно: стандартной архитектуры компьютера для этого недостаточно. Требовалось нечто более гибкое и адаптивное. Так родилась идея систем, которые могут учиться сами.

Нейросети

Машины не могли самостоятельно накапливать опыт или менять своё поведение без явного программирования каждого шага. Именно это ограничение подтолкнуло исследователей к поиску новых методов — попытке создать искусственный интеллект, способный учиться и адаптироваться самостоятельно, выходя за рамки классических вычислительных моделей.

В раннюю эпоху искусственного интеллекта преобладал подход, который сегодня называют GOFAI (Good Old-Fashioned Artificial Intelligence). Он базировался на символической обработке информации и строго заданных правилах: человек-программист заранее прописывал, как система должна реагировать на определённые условия. Например, если «увидел дверь» — «открой её», если «пользователь нажал кнопку» — «ответь Х». Такие системы могли решать формальные задачи: играть в шахматы, планировать расписание или сортировать документы. Но они оказывались совершенно беспомощными, когда сталкивались с повседневными задачами, которые человек решает автоматически: распознавание голоса, интерпретация сарказма, различение знакомых лиц — особенно в меняющемся контексте. GOFAI не умел обучаться, адаптироваться или работать с нечеткими, неполными данными — что и стало его главным ограничением.

-2

Параллельно с этим направлением существовали учёные-«упрямцы», которые не пытались писать инструкции для разума, а пытались воссоздать механизм обучения, вдохновляясь тем, как работает мозг. Они разрабатывали искусственные нейронные сети: упрощённые математические модели, способные накапливать опыт и делать выводы, не следуя заранее заданным алгоритмам. Так родилась идея искусственных нейронных сетей — математических моделей, где информация передаётся по связям между «нейронами» и со временем эти связи меняются. Если сеть делает ошибку, она корректирует внутренние параметры, чтобы в следующий раз с большей вероятностью выдать правильный ответ. То есть учится на опыте, что уже ближе к тому как "функционируем" мы.

Интересно, что сама идея такого механизма не просто была призвана найти способ работать как мозг, а буквально им и вдохновлена. А именно — математической модели персептрона, предложенной в 1950-х годах психологом Фрэнком Розенблаттом. Он попытался описать, как может работать один нейрон: получать сигналы, взвешивать их и принимать решение — например, активироваться или нет. Персептрон был примитивным, но важным шагом: он показал, что даже простая сеть может научиться различать образы, если постепенно настраивать «веса» связей между элементами.

Но долгое время этим моделям не хватало самой главной вещи — вычислительной мощности. Представим: чтобы обучить даже небольшую нейросеть, нужно выполнять миллионы операций параллельно. Классические процессоры, работающие строго по очереди, были к этому плохо приспособлены.

Модель персепторона и его интеграция в нейросети
Модель персепторона и его интеграция в нейросети

Парадоксально, но решение пришло из мира видеоигр. Графические процессоры (GPU) изначально создавались для того, чтобы в реальном времени рисовать сложные сцены в 3D-играх: освещение, тени, текстуры, движения персонажей. А для этого нужно было уметь одновременно обрабатывать тысячи пикселей и выполнять одинаковые операции над ними. То есть — идеально подходить для массовых параллельных вычислений, похожих на работу нейронной сети. Учёные быстро поняли, что GPU можно использовать не только для графики. Именно на видеокартах впервые удалось запустить по-настоящему глубокие нейросети, которые могли распознавать изображения, переводить тексты, писать музыку и даже генерировать смысл — как это делают современные модели вроде GPT.

-4

Символом этого перехода стало использование архитектуры CUDA от компании Nvidia, которая позволила запускать нейросетевые вычисления прямо на видеокартах. Позже компании вроде Google разработали специальные тензорные процессоры (TPU), ещё более заточенные под машинное обучение.

Что особенно интересно: GPU и нейронные сети — это не просто технологическая удача. Это архитектурное сближение с мозгом. Там, где GOFAI требует строгих инструкций, нейросеть учится сама, обновляя веса связей — подобно тому, как реальные синапсы в мозге усиливаются или ослабевают в ответ на опыт. И так же, как мозг работает параллельно (все нейроны одновременно), так и GPU позволяет делать сотни тысяч вычислений сразу, без последовательного «жёсткого плана».

Что дальше: кремниевые мозги и нейрокомпьютеры

Сегодняшний искусственный интеллект работает на классических компьютерах, архитектура которых была придумана еще в прошлом веке. Чтобы запустить нейросеть, приходится симулировать работу мозга, как будто мы пытаемся сыграть оркестровую симфонию в одиночку на одной скрипке. Это возможно, но только в определенных пределах.

Настоящая революция начнётся, когда мы перестанем подражать мозгу с помощью старых инструментов и начнём строить компьютеры по принципам самого мозга. Уже сегодня учёные и инженеры работают над нейроморфными чипами — схемами, в которых нет отдельного процессора и памяти. Вместо этого информация хранится и обрабатывается одновременно, прямо в миллионах микроскопических «ячейках», напоминающих нейроны.

-5

Каждый такой чип — как миниатюрный мозг: не требует центрального управления, учится на опыте и продолжает работать, даже если какая-то часть выйдет из строя. Как и человеческий мозг, он распределён, пластичен и устойчив. Это кардинально новый подход — от программируемых машин к обучаемым системам.

One more thing...

Все это прекрасно, но мы рассмотрели историю попыток достичь более эффективного способа анализировать информацию, пройдя путь от простых алгоритмичных операций до идеи адаптивных нейросетей. Однако печальная правда в том, что рост вычислительных возможностей само по себе не позволит полноценно повторить мозг.

Почему? Потому что мозг это не только вычисления, но и сложная система подкрепления. Технически мозг можно представить как совокупность нейросетей, которые взаимодействуют друг с другом, формируя единую систему. Однако эта система работает не только благодаря своей способности обрабатывать информацию. Её поведение определяется также глубинными биологическими механизмами — подкорковыми структурами, тесно связанными с гормональной и в целом телесной регуляцией.

-6

Эти структуры не «думают» в привычном смысле слова. С психологической точки зрения, именно эти системы отвечают за эмоциональное подкрепление — то есть за то, чтобы каждый опыт, каждое решение, каждый результат наших действий получал свою «оценку»: положительную или отрицательную. Это не просто реакция на внешний мир, а механизм обратной связи, который позволяет мозгу учиться на собственных переживаниях. Мы не просто «думаем», а проживаем принятые решения как удачные или неудачные, значимые или пустые — и в следующий раз уже оцениваем ситуацию иначе.

Благодаря этому эмоции маркируют опыт: они закрепляют поведенческие стратегии, которые оказались полезными, и ослабляют те, что привели к потере энергии или ресурса. Это особенно важно потому, что — в отличие от компьютера — человеческий мозг живёт в условиях ограниченности. Нашему организму постоянно нужно учитывать, что энергия не бесконечна, а значит, важно принимать не просто «логичные», а энергетически оправданные решения. Мозг учится выбирать не лучший теоретический вариант, а оптимальный в контексте происходящего, не имея возможности остановиться ни на секунду.

Нейросетям в этом смысле значительно проще: чат GPT не пугает страх смерти, а имеющие знания ограничены последним циклом обучения. Сам он не может захотеть эти знания улучшить или отказаться от вашего запроса из-за ощущения усталости. И все потому, что "аналитическая" и "мотивационная" стороны осуществляются вообще разными агентами. Первая — самой системой нейросетей, а вторая — все еще человеком. Именно его создатели определяют что и когда ему изучать, как реагировать на запросы и где брать на все это энергию.

-7

Без единства этих двух частей, не может быть автономной системы приоритетов и даже самый мощный искусственный интеллект будет просто перебирать варианты — не понимая, на каком остановиться, пока человек не даст ему инструкцию, исходя из собственных страхов, целей и желаний. Человеческий мозг не стремится к абстрактной истине (если только поиск этой истины не помогает выжить или адаптироваться). Он стремится к адаптивному решению: как выжить, как развиться, как сохранить и эффективно потратить энергию. Для этого нужны не только вычисления, но и мотивация, чувство вовлечённости, эмоциональная оценка риска и удовольствия. Именно поэтому человек не только решает задачи, но и чувствует, зачем он это делает.

Пока у искусственного интеллекта нет собственного тела или какой-то атомной системы самоподкрепления, он останется умным, но пассивным. Он может понимать, но не сможет хотеть.

Именно поэтому приближение ИИ к человеческому мышлению потребует не только новых чипов, но и новой архитектуры: такой, в которой информация, ощущения и цель взаимодействуют между собой. Только тогда можно будет говорить о системе, хоть отдалённо напоминающей полноценную работу мозга — а не просто его имитацию.