Найти в Дзене
Цифровая Переплавка

🔍✨ Когда ИИ лишь притворяется, что думает: мифы о цепочках рассуждений

Сегодня крупные языковые модели (LLM), такие как GPT-4, Gemini и DeepSeek, используют «цепочки рассуждений» (Chain of Thought, CoT), чтобы повысить точность ответов и выглядеть более убедительно для людей. Эти цепочки — последовательности промежуточных шагов, похожие на человеческие рассуждения, часто воспринимаются нами как доказательство того, что ИИ действительно «думает». Но последние исследования показывают, что на самом деле такие цепочки не всегда отражают реальный мыслительный процесс нейросети, а иногда даже мешают понять, почему модель пришла к тому или иному выводу. 🧩 Цепочка рассуждений: ум или иллюзия? Команда учёных из Университета штата Аризона (SCAI) решила проверить, насколько промежуточные токены (те самые «мысли» модели) действительно важны для её работы. Исследователи создали эксперимент, обучив модель решать простую задачу поиска пути в лабиринте с помощью известного алгоритма поиска A*. Эксперимент включал три варианта обучения: Результаты оказались ошеломляющими
Схематичный «мозг» робота выпускает хаотичные плитки с вопросами, которые по изогнутой стрелке ведут к зелёной галочке — визуальный намёк на то, как случайные промежуточные токены могут всё-таки приводить ИИ к правильному ответу.
Схематичный «мозг» робота выпускает хаотичные плитки с вопросами, которые по изогнутой стрелке ведут к зелёной галочке — визуальный намёк на то, как случайные промежуточные токены могут всё-таки приводить ИИ к правильному ответу.

Сегодня крупные языковые модели (LLM), такие как GPT-4, Gemini и DeepSeek, используют «цепочки рассуждений» (Chain of Thought, CoT), чтобы повысить точность ответов и выглядеть более убедительно для людей. Эти цепочки — последовательности промежуточных шагов, похожие на человеческие рассуждения, часто воспринимаются нами как доказательство того, что ИИ действительно «думает». Но последние исследования показывают, что на самом деле такие цепочки не всегда отражают реальный мыслительный процесс нейросети, а иногда даже мешают понять, почему модель пришла к тому или иному выводу.

🧩 Цепочка рассуждений: ум или иллюзия?

Команда учёных из Университета штата Аризона (SCAI) решила проверить, насколько промежуточные токены (те самые «мысли» модели) действительно важны для её работы. Исследователи создали эксперимент, обучив модель решать простую задачу поиска пути в лабиринте с помощью известного алгоритма поиска A*.

Эксперимент включал три варианта обучения:

  • 🎯 Только конечный ответ: модель обучалась исключительно правильному решению, без цепочек рассуждений.
  • 📌 Правильные цепочки: модель обучалась точным промежуточным шагам алгоритма A*.
  • 🎲 Случайные цепочки: модель получала совершенно не связанные с задачей и неверные промежуточные шаги.

Результаты оказались ошеломляющими: модель, обученная на случайных цепочках рассуждений, не только не ухудшила свои результаты, но иногда и значительно превосходила модель, обученную на правильных цепочках, особенно на задачах, не похожих на те, что были при обучении.

🤖 Почему случайные токены лучше правильных?

Это открытие кажется абсурдным: как совершенно бессмысленные промежуточные шаги могут улучшить работу модели? Вот несколько гипотез:

  • 🌀 Шум помогает обобщению: возможно, бесполезные шаги служат своего рода регуляризацией, заставляя модель меньше полагаться на шаблоны и лучше адаптироваться к неожиданным задачам.
  • 🎭 Иллюзия рассуждений: цепочки мыслей часто воспринимаются людьми как доказательство понимания, но на деле модель просто генерирует токены по вероятностным паттернам, не имеющим отношения к настоящим «размышлениям».

На практике это значит, что мы не можем доверять промежуточным выводам, которые выдаёт нейросеть — они могут выглядеть логично, но это лишь иллюзия осмысленности.

🚧 Технические детали: как проверяли модель

Исследователи использовали чёткую формальную верификацию для проверки корректности промежуточных токенов. Был создан специальный валидатор для алгоритма A*, который проверял каждый шаг «рассуждений» модели на соответствие правилам алгоритма. Так удалось строго разделить модели, генерирующие логичные и бессмысленные рассуждения.

Кроме того, учёные протестировали модели на разных типах лабиринтов:

  • 🌀 Wilson’s algorithm — простые, структурированные лабиринты.
  • 🧱 Kruskal’s algorithm — лабиринты с большим числом тупиков.
  • 🕸️ DFS — лабиринты с длинными коридорами.
  • 🗺️ Drunkard’s Walk — хаотичные лабиринты с циклами (пещеры и подземелья).

Именно на хаотичных лабиринтах «бессмысленная» модель продемонстрировала выдающиеся результаты, что говорит о её превосходной способности к обобщению в нестандартных условиях.

🎓 Что это значит для нас?

На мой взгляд, это исследование поднимает серьёзные вопросы о том, как мы интерпретируем работу языковых моделей. Мы склонны видеть в их ответах и промежуточных шагах отражение человеческого мышления, но реальность такова, что нейросети скорее создают «театральные постановки», а не осмысленные рассуждения.

Это также подчёркивает опасность использования таких моделей в критически важных сферах (например, в медицине или юриспруденции), если мы доверяем не только конечному ответу, но и промежуточным объяснениям. Важно помнить, что ИИ не обязательно «думает» логично, даже если его выводы выглядят правдоподобно.

🔑 Как использовать эти знания в работе с ИИ?

Вот несколько практических рекомендаций, исходя из результатов исследования:

  • ⚙️ Не полагайтесь слепо на промежуточные шаги: трактуйте цепочки рассуждений как вероятностные структуры, а не истинные мысли.
  • 📐 Тщательно тестируйте модель: оценивайте модель только по конечным результатам, не обманываясь её промежуточными объяснениями.
  • 🔀 Используйте разные типы цепочек и данные для обучения: эксперименты с шумными данными могут неожиданно повысить устойчивость модели.

🌌 Заключение: миф об осмысленности нейросетей

Исследование показывает, что успех языковых моделей далеко не всегда связан с настоящим «пониманием» задачи. Модели могут успешно решать сложные задачи, генерируя совершенно бессмысленные промежуточные токены. Это напоминает нам о том, что искусственный интеллект остаётся «чёрным ящиком», поведение которого не всегда понятно и предсказуемо. Возможно, будущее ИИ лежит не в том, чтобы сделать его более похожим на человека, а в том, чтобы научиться максимально использовать его уникальную и непредсказуемую природу.

📚 Полезная ссылка: