Вышла работа, которая очень трезво разбирает популярный вопрос: могут ли LLM обладать сознанием? Автор утверждает: есть научная причина, почему сегодняшние большие языковые модели *не* сознательны - и аргумент построен не на мнениях, а на критериях научности. Критерии теории сознания: ✅ falsifiable - теорию можно (в принципе) опровергнуть ✅ non-trivial - теория не должна “назначать сознание” почти всему подряд И вот ключевой вывод статьи: многие известные теории сознания не проходят эти критерии. Главная мысль: по одним только ответам модели нельзя доказать сознание - потому что ответы можно полностью скопировать. Автор строит “цепочку подстановок”: LLM → простая feedforward-сеть → lookup table (таблица «вопрос-ответ», просто хранилище пар) Все три системы дают одинаковые ответы. Но lookup table очевидно не сознателен - это просто сохранённые пары. А значит: если теория считает LLM сознательной из-за ответов, она обязана признать сознательной и lookup table, а это делает теорию
🧠 Почему современные LLM (скорее всего) не могут быть «сознательными» - строгий аргумент
16 января16 янв
11
1 мин