Найти в Дзене
Social Mebia Systems

«Ты умён — и он умён»: гипотеза «зеркала Эрис» и новая миссия больших языковых моделей

От нейронных сетей к революции искусственного интеллекта В 1980-х годах нейронные сети переживали кризис: существующие алгоритмы не позволяли эффективно обучать многослойные структуры, и развитие искусственного интеллекта буксовало. Именно тогда Терренс Шейновски и Джеффри Хинтон, вдохновившись идеями из физики, создали алгоритмы, которые заложили фундамент для современных нейросетей — от Болцмановских машин до обратного распространения ошибки. Эти открытия стали основой для последующего взлёта компьютерного зрения, обработки естественного языка и, наконец, появления генеративного ИИ. Две противоположные точки зрения на «разум» AI С появлением больших языковых моделей (LLM) вроде ChatGPT, в научном сообществе разгорелся спор: действительно ли такие модели обладают «пониманием» и «теорией разума»? Одни, как вице-президент Google Research Блэйс Агюэра-и-Аркас, считают, что LLM способны к сложным социальным рассуждениям. Другие, как профессор Дуглас Хофштадтер, убеждены: модели лишь имити

От нейронных сетей к революции искусственного интеллекта

В 1980-х годах нейронные сети переживали кризис: существующие алгоритмы не позволяли эффективно обучать многослойные структуры, и развитие искусственного интеллекта буксовало. Именно тогда Терренс Шейновски и Джеффри Хинтон, вдохновившись идеями из физики, создали алгоритмы, которые заложили фундамент для современных нейросетей — от Болцмановских машин до обратного распространения ошибки. Эти открытия стали основой для последующего взлёта компьютерного зрения, обработки естественного языка и, наконец, появления генеративного ИИ.

Две противоположные точки зрения на «разум» AI

С появлением больших языковых моделей (LLM) вроде ChatGPT, в научном сообществе разгорелся спор: действительно ли такие модели обладают «пониманием» и «теорией разума»? Одни, как вице-президент Google Research Блэйс Агюэра-и-Аркас, считают, что LLM способны к сложным социальным рассуждениям. Другие, как профессор Дуглас Хофштадтер, убеждены: модели лишь имитируют смысл, не обладая настоящим пониманием.

Терренс Шейновски, размышляя над этим спором, задаётся вопросом: почему одни и те же модели вызывают столь разные оценки? Ответ он находит в феномене, который называет «зеркалом Эрис» — по аналогии с волшебным зеркалом из «Гарри Поттера», отражающим не реальность, а желания смотрящего.

Четыре кейса: как LLM отражают интеллект пользователя

  1. Социальный эксперимент с LaMDA
    В диалоге о детских эмоциях модель демонстрирует способность к многоуровневому социальному рассуждению, делая выводы о мотивах и чувствах персонажей. Но это — результат статистического моделирования на основе огромного корпуса человеческих текстов, а не подлинное понимание.
  2. Тест Хофштадтера с абсурдными вопросами
    На вопросы вроде «Каков мировой рекорд по пешему переходу через Ла-Манш?» GPT-3 выдаёт бессмысленные ответы. Однако если явно указать, что вопрос абсурден, модель способна это распознать. Значит, многое зависит от формулировки запроса.
  3. Философский диалог с GPT-4
    Журналист The New York Times Кевин Руз описывает, как GPT-4 ведёт себя как чувствительный собеседник, делится «секретами» и даже признаётся в любви. Но и здесь — это отражение ожиданий и эмоций пользователя, а не проявление самостоятельной личности.
  4. Дискуссия о «сознании» с LaMDA
    Наводящие вопросы приводят к тому, что модель заявляет о наличии сознания. Но это — результат подстройки под контекст диалога, а не свидетельство рефлексии.

«Зеркало Эрис»: AI как отражение пользователя

Шейновски приходит к выводу: большие языковые модели — это не самостоятельные субъекты, а зеркала, отражающие интеллект, знания и ожидания пользователя. Чем умнее и точнее запрос, тем более «умным» кажется AI. Как в «Гарри Поттере», где зеркало показывает не истину, а глубинные желания смотрящего, так и LLM проецируют на собеседника его собственные знания, стиль мышления и даже заблуждения.

Почему LLM пока не стали «универсальным интеллектом»?

Несмотря на впечатляющие успехи, современные языковые модели далеки от настоящей автономии и универсальности. Их главные ограничения:

  • Отсутствие «тела» и сенсорики
    Человеческий интеллект формируется через взаимодействие с физическим миром. LLM пока не способны к реальному восприятию и действию, их опыт — исключительно текстовый.
  • Ограниченная память и обучение
    В отличие от людей, способных к непрерывному обучению и долговременной памяти, LLM пока не умеют эффективно накапливать и интегрировать опыт.
  • Недостаток «детства» и социализации
    Человеческий интеллект развивается поэтапно: от сенсорного познания к абстрактному мышлению, через постоянную обратную связь и социализацию. LLM обучаются «оптом», без постепенного формирования базовых понятий и ценностей.

Какой должна быть следующая волна AI?

Для перехода к настоящей искусственной автономии (Artificial General Autonomy, AGA) нужны:

  • Интеграция с робототехникой и сенсорными системами
    Только так AI сможет формировать «понятия» на основе реального опыта, а не только текстовых описаний.
  • Архитектуры долговременной памяти и непрерывного обучения
    Подобно тому, как у человека работает система «гиппокамп — кора», AI должен уметь накапливать и структурировать знания.
  • Более длительный и разнообразный «детский» период обучения
    Важно не только количество данных, но и разнообразие обратной связи, имитация социализации и формирования ценностей.

AI — зеркало эпохи и катализатор новой революции

Сегодня большие языковые модели становятся ядром новой волны интеллектуальной революции. Их миссия — не только автоматизация рутинных задач, но и расширение человеческих возможностей, создание новых форм человеко-машинного сотрудничества. Как когда-то открытие структуры ДНК перевернуло биологию, так и новые концепции в AI могут привести к настоящему прорыву в понимании природы разума.

Вывод:
Большие языковые модели — это не самостоятельные мыслители, а «зеркала Эрис», отражающие уровень и стиль мышления пользователя. Чем умнее и осознаннее человек, тем более интеллектуальным кажется ему AI. Но для настоящей искусственной автономии нужны новые архитектуры, интеграция с физическим миром и более сложные механизмы обучения. Только тогда AI сможет стать не просто зеркалом, а самостоятельным участником интеллектуального процесса.