Найти в Дзене
Машинное обучение

🧠 Почему современные LLM (скорее всего) не могут быть «сознательными» - строгий аргумент

Вышла работа, которая очень трезво разбирает популярный вопрос: могут ли LLM обладать сознанием? Автор утверждает: есть научная причина, почему сегодняшние большие языковые модели *не* сознательны - и аргумент построен не на мнениях, а на критериях научности. Критерии теории сознания: ✅ falsifiable - теорию можно (в принципе) опровергнуть ✅ non-trivial - теория не должна “назначать сознание” почти всему подряд И вот ключевой вывод статьи: многие известные теории сознания не проходят эти критерии. Главная мысль: по одним только ответам модели нельзя доказать сознание - потому что ответы можно полностью скопировать. Автор строит “цепочку подстановок”: LLM → простая feedforward-сеть → lookup table (таблица «вопрос-ответ», просто хранилище пар) Все три системы дают одинаковые ответы. Но lookup table очевидно не сознателен - это просто сохранённые пары. А значит: если теория считает LLM сознательной из-за ответов, она обязана признать сознательной и lookup table, а это делает теорию

🧠 Почему современные LLM (скорее всего) не могут быть «сознательными» - строгий аргумент

Вышла работа, которая очень трезво разбирает популярный вопрос:

могут ли LLM обладать сознанием?

Автор утверждает: есть научная причина, почему сегодняшние большие языковые модели *не* сознательны - и аргумент построен не на мнениях, а на критериях научности.

Критерии теории сознания:

✅ falsifiable - теорию можно (в принципе) опровергнуть

✅ non-trivial - теория не должна “назначать сознание” почти всему подряд

И вот ключевой вывод статьи:

многие известные теории сознания не проходят эти критерии.

Главная мысль:

по одним только ответам модели нельзя доказать сознание - потому что ответы можно полностью скопировать.

Автор строит “цепочку подстановок”:

LLM → простая feedforward-сеть → lookup table

(таблица «вопрос-ответ», просто хранилище пар)

Все три системы дают одинаковые ответы.

Но lookup table очевидно не сознателен - это просто сохранённые пары.

А значит:

если теория считает LLM сознательной из-за ответов,

она обязана признать сознательной и lookup table,

а это делает теорию тривиальной и бессмысленной.

Если же теория пытается “спастись” внутренним устройством модели,

подстановки сохраняют те же ответы, но ломают предсказания теории -

то есть теорию можно опровергнуть.

Отсюда сильный вывод:

📌 нет серьёзной, проверяемой теории, которая могла бы назвать

статичные, развернутые LLM сознательными.

Что может быть важным отличием?

Автор указывает на continual learning:

когда система реально меняется от опыта и несёт контекст внутри себя.

У людей мозгу не нужно “вставлять весь чат заново” каждый раз - контекст хранится внутри.

У LLM без continual learning этого свойства нет.

Самое интересное: работа превращает вопрос «ChatGPT сознателен?» в конкретный стресс-тест

и даёт чеклист - что будущие заявления про conscious AI обязаны объяснить.

web3.arxiv.org/pdf/2512.12802