Найти в Дзене
DigEd

Сближаются ли мозг и ИИ? — отрывок из книги «ChatGPT и будущее ИИ: глубокая языковая революция»

Автор Терренс Сейновски Во второй половине двадцатого века физика двигалась вперед на основе открытий, сделанных в первой половине века. Теория квантовой механики дала нам понимание тайн вселенной, что привело к изобилию практических приложений. Затем физика взялась за еще один грандиозный вызов — сложность. Сюда вошли сложные естественные системы, такие как экосистемы и климат, а также созданные человеком системы, такие как экономические рынки и транспортные системы. Человеческий мозг и социальные системы, в которых живут люди, являются предельно сложными системами. Действительно, сложность мозга вдохновила на разработку искусственных нейронных сетей, которые были направлены на решение проблем путем обучения на данных, так же как мы учимся на опыте. С тех пор это глубокое обучение внесло огромный вклад в науку и было отмечено в этом месяце Нобелевскими премиями по физике и химии. Мы находимся в начале новой эры в науке, подпитываемой большими данными и экзафлопсными вычислениями. Како
Оглавление
Проблема сложности: искусственные нейронные сети стремятся решать проблемы, обучаясь на данных, так же, как мы учимся на опыте. Это глубокое обучение внесло огромный вклад в науку и было отмечено в этом месяце Нобелевскими премиями по физике и химии. Иллюстрация Адрии Вольты
Проблема сложности: искусственные нейронные сети стремятся решать проблемы, обучаясь на данных, так же, как мы учимся на опыте. Это глубокое обучение внесло огромный вклад в науку и было отмечено в этом месяце Нобелевскими премиями по физике и химии. Иллюстрация Адрии Вольты

Автор Терренс Сейновски

-2

Во второй половине двадцатого века физика двигалась вперед на основе открытий, сделанных в первой половине века. Теория квантовой механики дала нам понимание тайн вселенной, что привело к изобилию практических приложений.

Затем физика взялась за еще один грандиозный вызов — сложность. Сюда вошли сложные естественные системы, такие как экосистемы и климат, а также созданные человеком системы, такие как экономические рынки и транспортные системы. Человеческий мозг и социальные системы, в которых живут люди, являются предельно сложными системами.

Действительно, сложность мозга вдохновила на разработку искусственных нейронных сетей, которые были направлены на решение проблем путем обучения на данных, так же как мы учимся на опыте. С тех пор это глубокое обучение внесло огромный вклад в науку и было отмечено в этом месяце Нобелевскими премиями по физике и химии. Мы находимся в начале новой эры в науке, подпитываемой большими данными и экзафлопсными вычислениями. Какое влияние глубокое обучение окажет на науку в грядущие десятилетия?

В моей новой книге «ChatGPT и будущее ИИ: глубокая языковая революция» рассматриваются истоки больших языковых моделей и исследования, которые сформируют следующее поколение ИИ.

-3

(Я продолжаю освещать эту тему в своем подразделе «Мозги и ИИ».) В этом отрывке описывается, как эволюция языка повлияла на большие языковые модели, и исследуется, как концепции нейронауки и ИИ сходятся, чтобы продвигать обе области вперед.

Как развивался язык (из главы 13)

Однажды я посетил симпозиум в Университете Рокфеллера, на котором состоялась панельная дискуссия о языке и его происхождении. Двое участников дискуссии, которые были титанами в своих областях, придерживались полярно противоположных взглядов: Ноам Хомский утверждал, что, поскольку язык является врожденным, должен быть «языковой орган», который развился исключительно у людей. Сидни Бреннер придерживался более биологической точки зрения и утверждал, что эволюция находит решения проблем, которые не являются интуитивными. Известный своим остроумием, Бреннер привел пример: вместо того, чтобы искать ген языка, может быть ген-супрессор языка, который эволюция решила сохранить у шимпанзе, но заблокировала у людей. Существуют параллели между обучением пению у певчих птиц и тем, как люди усваивают язык. Эрих Джарвис из Рокфеллеровского университета хотел понять различия в мозге птиц, которые могут выучить сложные песни, таких как канарейки и скворцы, и других видов птиц, которые не могут.

-4

Он секвенировал геномы многих видов птиц и обнаружил различия между двумя группами. В частности, он нашел ген, контролирующий развитие проекций из высокого вокального центра (HVc) в нижние двигательные области, контролирующие мышцы, приводящие в движение сиринкс. Во время развития этот ген функционирует, подавляя прямые проекции, необходимые для создания песен. Он не экспрессируется в HVc певчих птиц, что позволяет формировать проекции для быстрого управления пением птиц. Примечательно, что он обнаружил, что тот же ген у людей был подавлен в моторной коре гортани, которая проецируется на моторные области, контролирующие голосовые связки, но не у шимпанзе. Сидни Бреннер был не только умен, он был еще и прав!

Не менее важными были изменения, внесенные в голосовой тракт, чтобы обеспечить быструю модуляцию в широком частотном спектре. Быстрые артикуляционные последовательности во рту и гортани являются самыми быстрыми двигательными программами, которые может генерировать мозг. Эти структуры являются древними частями позвоночных, которые были усовершенствованы и разработаны эволюцией, чтобы сделать возможной речь. Метафорический «языковой орган», постулируемый для объяснения тайны языка, распределен по всем уже существующим сенсомоторным системам.

Мозговые механизмы, лежащие в основе языка и мышления, развивались вместе. Петли между корой и базальными ганглиями для генерации последовательностей действий были перепрофилированы для обучения и генерации последовательностей слов. Значительное расширение префронтальной коры у людей позволило генерировать последовательности мыслей с помощью аналогичных петель через базальные ганглии. Как участник обучения с подкреплением, базальные ганглии усваивают ценность выполнения следующего действия, предопределяя действия и речь для достижения будущих наград и целей. Внешняя петля трансформатора напоминает петлю между корой и базальными ганглиями в мозге, которая, как известно, важна для обучения и генерации последовательностей двигательных действий совместно с двигательной корой и для вращения последовательностей мыслей в петле с префронтальной корой. Базальные ганглии также автоматизируют часто практикуемые последовательности, освобождая нейроны для других задач в корковых областях, участвующих в сознательном контроле. Кора может вмешаться, когда автоматическая система дает сбой при столкновении с необычными или редкими обстоятельствами. Еще одним преимуществом наличия базальных ганглиев в петле является то, что конвергенция входов из нескольких корковых областей обеспечивает более широкий контекст для принятия решения о следующем действии или мысли. Базальные ганглии могут действовать как мощный многоголовый механизм внимания в трансформаторах. В петле между корой и базальными ганглиями любая область в петле может способствовать принятию решения.

LLM обучены предсказывать следующее слово в предложении. Почему это такая эффективная стратегия? Чтобы делать более точные прогнозы, трансформатор изучает внутренние модели построения предложений и даже более сложные семантические модели для базового значения слов и их связей с другими словами в предложении. Модели также должны изучать базовую причинно-следственную структуру предложения. Удивительно, как много можно узнать, просто предсказывая по одному шагу за раз. Было бы удивительно, если бы мозг не воспользовался этим методом «по одному шагу за раз» для создания внутренних моделей мира.

Алгоритм обучения временной разнице в обучении с подкреплением также основан на прогнозировании, в данном случае на прогнозировании будущих наград. Используя обучение временной разнице, AlphaGo научился делать длинные последовательности ходов, чтобы выиграть игру в го. Как такой простой алгоритм, который предсказывает на шаг вперед, может достичь такого высокого уровня игры? Базальные ганглии аналогичным образом изучают последовательности действий для достижения целей посредством практики, используя тот же алгоритм. Например, подача в теннисе включает в себя сложные последовательности быстрых мышечных сокращений, которые нужно практиковать многократно, прежде чем они станут автоматическими. Мозжечок, важная структура мозга, которая взаимодействует с корой головного мозга, предсказывает ожидаемые сенсорные и когнитивные последствия моторных команд. Это называется прямой моделью в теории управления, потому что ее можно использовать для прогнозирования последствий моторных команд до того, как будут выполнены действия. И снова, изучение того, что произойдет дальше, и обучение на ошибках может построить сложную прогностическую модель тела и свойств мышц.

Общим в этих трех примерах является то, что существует множество данных для самостоятельного обучения в различных временных масштабах. Может ли интеллект возникнуть из использования самостоятельного обучения для самообучения все более сложных внутренних моделей путем постоянного обучения тому, как делать множество небольших предсказаний? Возможно, именно так мозг ребенка быстро изучает причинно-следственную структуру мира, делая прогнозы и наблюдая результаты, активно взаимодействуя с миром. Прогресс в этом направлении был достигнут в изучении интуитивной физики по видео с использованием глубокого обучения.

Сближаются ли мозг и ИИ?

Исследования мозга и ИИ основаны на одних и тех же базовых принципах: массивно-параллельные архитектуры с высокой степенью связности, обучаемые с помощью обучения на основе данных и опыта. Открытия мозга, сделанные в двадцатом веке, вдохновили на создание новых алгоритмов машинного обучения: иерархия областей в зрительной коре вдохновила на создание сверточных нейронных сетей, а оперантное обусловливание вдохновило на создание алгоритма обучения на основе временной разницы для обучения с подкреплением. Параллельно с достижениями в области искусственных нейронных сетей инициатива BRAIN ускорила открытия в области нейронауки в двадцать первом веке, поддержав разработку инновационных нейротехнологий. Машинное обучение используется нейроучеными для анализа одновременных записей сотен тысяч нейронов в десятках областей мозга и для автоматизации реконструкции нейронных цепей с помощью последовательной электронной микроскопии срезов. Эти достижения изменили наше представление об обработке, распределенной по коре, и привели к открытиям, которые создали новую концептуальную основу для функционирования мозга, что привело к созданию еще более продвинутых и масштабных моделей нейронных сетей. Новые концептуальные рамки в ИИ и нейронауке сходятся, ускоряя их прогресс. Диалог между ИИ и нейронаукой — это благотворный круг, который обогащает обе области. Теория ИИ возникает из анализа моделей активности скрытых единиц в сверхвысокоразмерных пространствах, именно так мы изучаем активность мозга. Анализ динамики моделей активности в больших языковых моделях (LLM) может привести нас к более глубокому пониманию интеллекта, раскрывая общую базовую математическую структуру. Например, LLM обучался на игровых позициях в игре «Отелло» и был исследован, чтобы выявить внутреннюю модель для правил «Отелло».

Как загрузить мозг

Теперь, когда мы можем опрашивать нейроны по всему мозгу, мы можем разгадать одну из его величайших загадок: как информация, глобально распределенная по такому количеству нейронов, интегрируется в единые восприятия и объединяется для принятия решений. Архитектура мозга многослойна, и каждый слой отвечает за принятие решений в разных временных масштабах как в сенсорных, так и в двигательных системах. Мы можем строить глубокие мультимодальные модели с множеством компонентных сетей и интегрировать их в единую систему, давая представление о механизмах, ответственных за подсознательное принятие решений и сознательный контроль.

Нейроны традиционно опрашиваются в контексте дискретных задач, таких как ответы на визуальные стимулы, в которых выбор и стимулы ограничены по количеству. Этот жесткий контроль стимула и реакции позволяет интерпретировать нейронные записи в контексте задачи. Но нейроны могут участвовать во многих задачах разными способами, поэтому интерпретации, полученные из одной задачи, могут вводить в заблуждение. Теперь мы можем записывать данные с сотен тысяч нейронов по всему мозгу, а также можно анализировать записи и анализировать поведение с помощью машинного обучения. Однако нейробиологи все еще используют те же старые парадигмы одной задачи. Одно из решений — тренироваться на многих различных задачах, но обучение обезьяны, например, занимает недели или месяцы для каждой задачи. Другое решение — расширять сложность задачи на более длительные промежутки времени, приближая ее к естественному поведению. Существует еще более фундаментальная проблема с подходом к поведению путем изучения дискретных задач. Естественное поведение животных в реальном мире в основном самогенерируется и интерактивно. Это особенно касается социального поведения. Изучение такого самогенерируемого непрерывного поведения намного сложнее, чем изучение жестко ограниченного, рефлексивного.

Что, если бы LLM обучался на массивных записях мозга во время естественного поведения и сопутствующего поведения, включая отслеживание тела и глаз, видео, звук и другие модальности? LLM являются самоконтролируемыми и могут обучаться, предсказывая недостающие сегменты данных в потоках данных. Это не было бы научно полезным с традиционной экспериментальной точки зрения, но имеет смысл с новой вычислительной точки зрения, предоставляемой LLM.

Большая модель основанная на нейронах (LNM) может быть обучена на мозговой активности и поведении в естественных условиях так же, как мы сейчас обучаем LLM. Полученный LNM можно было бы опрашивать по многим новым задачам так же, как предварительно обученные LLM реагируют на новые запросы, и его можно использовать для выполнения многих новых задач. Обучение этих предварительно обученных LNM будет таким же дорогим, как и обучение LLM, но как только LNM будет предварительно обучен, он сможет предоставить научному сообществу общий ресурс для исследования и анализа. Это произвело бы революцию в изучении мозга, с бонусом в виде сокращения количества животных, необходимых для исследования. Активность человеческого мозга отдельного человека может быть аналогичным образом использована для обучения достаточно продвинутого LNM, создавая бессмертную генеративную версию этого человека.

Это может звучать как научная фантастика, но Джеральд Пао из Окинавского института науки и технологий уже добился этого на мухах и личинках данио-рерио, у которых около 100 000 нейронов.

-5

Почти все нейроны были оптически зарегистрированы как вспышки света от флуоресцентных красителей, чувствительных к нейронным сигналам, во время мониторинга поведения. Спонтанное поведение, которое изучал Пао, было поведением избегания аноксии — пониженной оксигенации — у личинок данио-рерио и поведением ходьбы у мух. Он использовал метод из теории динамических систем, называемый конвергентным перекрестным картированием (CCM), представленный Джорджем Сугихарой ​​из Института океанографии Скриппса, Калифорнийского университета в Сан-Диего, для извлечения причинно-следственных связей между зарегистрированными нейронами и поведением.

-6

Этот метод извлекает сокращенную графическую модель, которая захватывает низкоразмерные подпространства мозга, которые управляют поведением. Записи примерно от 100 000 нейронов были проанализированы с помощью суперкомпьютера в облачной инфраструктуре AI Bridging Cloud Infrastructure (ABCI) в Японии. Когда модель была включена, спонтанное поведение, которое она генерировала, было неотличимо от наблюдаемого in vivo. Ключевым моментом был одновременный анализ как нейронных записей, так и поведения. Анализа только одного было недостаточно для воспроизведения поведения.

Это доказательство принципа, что мозговая активность и поведение могут быть загружены в модель, когда доступно достаточное количество одновременно записанных данных как от мозга, так и от поведения.

Источник