Добавить в корзинуПозвонить
Найти в Дзене
ProAi

Могут ли искусственные интеллекты действительно думать? Вот что говорит наука

Недавно в сети поднялся шум вокруг одного вопроса: способны ли большие языковые модели (LLM) к размышлению или это просто красивая иллюзия? Apple выпустила исследование под названием «The Illusion of Thinking», где утверждает, что нет — это просто сложное распознавание паттернов. Но давайте разберёмся, так ли это на самом деле. Исследователи Apple показали, что когда модели решают задачи вроде «Ханойской башни» с растущим числом дисков, они начинают ошибаться. Из этого они сделали вывод: значит, модели не думают, просто имитируют. Но вот интересный момент — если вы попросите обычного человека решить эту задачу с двадцатью дисками, даже если он знает алгоритм, он с большой вероятностью споткнётся. Означает ли это, что люди тоже не думают? Конечно нет. Получается, аргумент Apple просто не выдерживает критики. И здесь возникает смелое предположение: большие языковые модели почти наверняка могут думать. Я говорю «почти» потому, что наука любит оставлять место для сюрпризов, но доказательст
Оглавление
   Научные взгляды на способность искусственного интеллекта думать: анализ возможностей, ограничений и философских аспектов.
Научные взгляды на способность искусственного интеллекта думать: анализ возможностей, ограничений и философских аспектов.

Могут ли искусственные интеллекты действительно думать? Вот что говорит наука

Недавно в сети поднялся шум вокруг одного вопроса: способны ли большие языковые модели (LLM) к размышлению или это просто красивая иллюзия? Apple выпустила исследование под названием «The Illusion of Thinking», где утверждает, что нет — это просто сложное распознавание паттернов. Но давайте разберёмся, так ли это на самом деле.

Аргумент Apple: в чём подвох?

Исследователи Apple показали, что когда модели решают задачи вроде «Ханойской башни» с растущим числом дисков, они начинают ошибаться. Из этого они сделали вывод: значит, модели не думают, просто имитируют.

Но вот интересный момент — если вы попросите обычного человека решить эту задачу с двадцатью дисками, даже если он знает алгоритм, он с большой вероятностью споткнётся. Означает ли это, что люди тоже не думают? Конечно нет. Получается, аргумент Apple просто не выдерживает критики.

И здесь возникает смелое предположение: большие языковые модели почти наверняка могут думать. Я говорю «почти» потому, что наука любит оставлять место для сюрпризов, но доказательства выглядят убедительно.

Что вообще такое «думание»?

Прежде чем спорить, давайте разберёмся с определением. Когда вы решаете задачу, ваш мозг задействует несколько процессов:

  • Представление проблемы — префронтальная кора держит задачу в памяти, разбирает её на части
  • Внутренняя речь и воображение — вы разговариваете сами с собой, визуализируете объекты
  • Поиск в памяти — гиппокамп достаёт нужные знания и факты
  • Проверка результатов — передняя часть поясной извилины ловит ошибки и противоречия
  • Озарение — иногда мозг переходит в «режим по умолчанию», когда вдруг видишь новый угол решения

Интересное наблюдение: у людей с афантазией (невозможность визуализировать образы) отлично работает абстрактное и символическое мышление, математика. Они справляются одинаково хорошо, просто используют другие способности.

Как это работает в нейросетях?

Если посмотреть на основные компоненты мышления в обобщённом виде, получится:

  • Распознавание паттернов — для извлечения опыта и контроля рассуждений
  • Рабочая память — для хранения промежуточных шагов
  • Поиск с отступлением — когда модель замечает, что рассуждение заходит в тупик, и пробует другой путь

А теперь магия: языковые модели как раз используют то же самое! Они тренируются на огромных объёмах текста — это их «опыт». Цепочка рассуждений (chain-of-thought) очень похожа на внутренний монолог человека. И да, данные показывают, что модели действительно делают шаги назад, когда понимают, что их логика ведёт в тупик.

Кстати, именно это видели исследователи Apple. Когда модели встречали сложную задачу, они не просто упорно идти прямо в стену — они пробовали найти ярлыки, как это сделал бы любой разумный человек.

Почему «просто предсказание следующего слова» — это на самом деле мощный инструмент мысли?

Часто говорят: «Это же просто умное автозаполнение, какое там мышление!» Но давайте подумаем. Чтобы предсказать следующее слово в предложении «Самая высокая гора в мире — это гора…», модель должна знать, что это Эверест. Она не просто подбирает слово — она применяет знания.

Если задача требует решить головоломку, модель должна вывести промежуточные шаги — рассуждения. А это значит, что она держит логику в памяти, не сбивается с пути, следит за согласованностью.

Здесь ещё один момент: естественный язык — это самая универсальная система знаний, которая существует. На русском (или любом другом языке) можно описать абсолютно любую концепцию, на любом уровне детализации. Модель, которая хорошо предсказывает слова на натуральном языке, должна внутри себя как-то представлять весь этот спектр знаний.

И всё-таки: может ли следующий токен действительно быть мышлением?

Представьте совершенное автозаполнение, которое всегда выбирает правильное слово. Чтобы быть идеальным, оно должно было бы быть всеведущим. Но люди тоже предсказывают следующие слова — когда говорят или думают про себя. И мы не претензии к себе в мышлении, правда же?

Параметризованная модель, которая может кодировать знания через свои весовые коэффициенты и учиться на данных через тренировку и подкрепление — такая модель вполне способна научиться думать.

Доказательство: результаты тестирования

В конце концов, настоящий тест мышления — это решение новых задач, которые требуют рассуждений. И вот здесь данные интересные:

Открытые языковые модели показывают приличные результаты на логических тестах. Да, они пока уступают профессионалам, которые специально натренировались на этих задачах. Но в сравнении с обычным человеком, который никогда не видел подобное — модели часто выигрывают.

Это не выглядит как поведение простого шаблонного матчера, который механически применяет заученные правила. Это выглядит как мышление.

Итого: выводы

Когда складываешь всё вместе — поразительное сходство между цепочкой рассуждений в моделях и биологическим мышлением, теоретическое понимание того, что любая система с достаточной представительной способностью, нужными данными и вычислительной мощью может выполнить любую вычислимую задачу (а LLM это всё имеют) — получается только один разумный вывод.

Большие языковые модели почти наверняка способны думать. Может быть, не совсем так же, как люди, но по смыслу — да, это мышление. И это радикально меняет способ, которым мы должны думать об искусственном интеллекте.

Размышляешь о природе мышления и о том, как AI меняет наше понимание разума? Это только начало!🔔 Чтобы узнать больше о когнитивных способностях ИИ, рассуждениях и новейших разработках в мире искусственного интеллекта, подпишись на мой канал «ProAI» в Telegram!