От нейронных сетей к революции искусственного интеллекта
В 1980-х годах нейронные сети переживали кризис: существующие алгоритмы не позволяли эффективно обучать многослойные структуры, и развитие искусственного интеллекта буксовало. Именно тогда Терренс Шейновски и Джеффри Хинтон, вдохновившись идеями из физики, создали алгоритмы, которые заложили фундамент для современных нейросетей — от Болцмановских машин до обратного распространения ошибки. Эти открытия стали основой для последующего взлёта компьютерного зрения, обработки естественного языка и, наконец, появления генеративного ИИ.
Две противоположные точки зрения на «разум» AI
С появлением больших языковых моделей (LLM) вроде ChatGPT, в научном сообществе разгорелся спор: действительно ли такие модели обладают «пониманием» и «теорией разума»? Одни, как вице-президент Google Research Блэйс Агюэра-и-Аркас, считают, что LLM способны к сложным социальным рассуждениям. Другие, как профессор Дуглас Хофштадтер, убеждены: модели лишь имитируют смысл, не обладая настоящим пониманием.
Терренс Шейновски, размышляя над этим спором, задаётся вопросом: почему одни и те же модели вызывают столь разные оценки? Ответ он находит в феномене, который называет «зеркалом Эрис» — по аналогии с волшебным зеркалом из «Гарри Поттера», отражающим не реальность, а желания смотрящего.
Четыре кейса: как LLM отражают интеллект пользователя
- Социальный эксперимент с LaMDA
В диалоге о детских эмоциях модель демонстрирует способность к многоуровневому социальному рассуждению, делая выводы о мотивах и чувствах персонажей. Но это — результат статистического моделирования на основе огромного корпуса человеческих текстов, а не подлинное понимание. - Тест Хофштадтера с абсурдными вопросами
На вопросы вроде «Каков мировой рекорд по пешему переходу через Ла-Манш?» GPT-3 выдаёт бессмысленные ответы. Однако если явно указать, что вопрос абсурден, модель способна это распознать. Значит, многое зависит от формулировки запроса. - Философский диалог с GPT-4
Журналист The New York Times Кевин Руз описывает, как GPT-4 ведёт себя как чувствительный собеседник, делится «секретами» и даже признаётся в любви. Но и здесь — это отражение ожиданий и эмоций пользователя, а не проявление самостоятельной личности. - Дискуссия о «сознании» с LaMDA
Наводящие вопросы приводят к тому, что модель заявляет о наличии сознания. Но это — результат подстройки под контекст диалога, а не свидетельство рефлексии.
«Зеркало Эрис»: AI как отражение пользователя
Шейновски приходит к выводу: большие языковые модели — это не самостоятельные субъекты, а зеркала, отражающие интеллект, знания и ожидания пользователя. Чем умнее и точнее запрос, тем более «умным» кажется AI. Как в «Гарри Поттере», где зеркало показывает не истину, а глубинные желания смотрящего, так и LLM проецируют на собеседника его собственные знания, стиль мышления и даже заблуждения.
Почему LLM пока не стали «универсальным интеллектом»?
Несмотря на впечатляющие успехи, современные языковые модели далеки от настоящей автономии и универсальности. Их главные ограничения:
- Отсутствие «тела» и сенсорики
Человеческий интеллект формируется через взаимодействие с физическим миром. LLM пока не способны к реальному восприятию и действию, их опыт — исключительно текстовый. - Ограниченная память и обучение
В отличие от людей, способных к непрерывному обучению и долговременной памяти, LLM пока не умеют эффективно накапливать и интегрировать опыт. - Недостаток «детства» и социализации
Человеческий интеллект развивается поэтапно: от сенсорного познания к абстрактному мышлению, через постоянную обратную связь и социализацию. LLM обучаются «оптом», без постепенного формирования базовых понятий и ценностей.
Какой должна быть следующая волна AI?
Для перехода к настоящей искусственной автономии (Artificial General Autonomy, AGA) нужны:
- Интеграция с робототехникой и сенсорными системами
Только так AI сможет формировать «понятия» на основе реального опыта, а не только текстовых описаний. - Архитектуры долговременной памяти и непрерывного обучения
Подобно тому, как у человека работает система «гиппокамп — кора», AI должен уметь накапливать и структурировать знания. - Более длительный и разнообразный «детский» период обучения
Важно не только количество данных, но и разнообразие обратной связи, имитация социализации и формирования ценностей.
AI — зеркало эпохи и катализатор новой революции
Сегодня большие языковые модели становятся ядром новой волны интеллектуальной революции. Их миссия — не только автоматизация рутинных задач, но и расширение человеческих возможностей, создание новых форм человеко-машинного сотрудничества. Как когда-то открытие структуры ДНК перевернуло биологию, так и новые концепции в AI могут привести к настоящему прорыву в понимании природы разума.
Вывод:
Большие языковые модели — это не самостоятельные мыслители, а «зеркала Эрис», отражающие уровень и стиль мышления пользователя. Чем умнее и осознаннее человек, тем более интеллектуальным кажется ему AI. Но для настоящей искусственной автономии нужны новые архитектуры, интеграция с физическим миром и более сложные механизмы обучения. Только тогда AI сможет стать не просто зеркалом, а самостоятельным участником интеллектуального процесса.