Добавить в корзинуПозвонить
Найти в Дзене
Social Mebia Systems

Откуда у DeepSeek R1 берётся интеллект — новая теория Google о спорящих «внутренних агентах»

За последние два года мы наблюдаем скачок в рассуждениях LLM‑моделей: DeepSeek‑R1, OpenAI o‑серия, QwQ‑32B — все они уверенно обходят обычные инструкционные модели в математике, логике, сложном планировании. На поверхности объяснение казалось простым: длиннее Chain‑of‑Thought → больше вычислений → лучше результат. Но новое исследование Google, Чикагского университета и ряда институтов предлагает куда более глубокий ответ: сильные reasoning‑модели мыслят не «дольше», а «социальнее».
Внутри них возникают взаимодействующие роли, мини‑агенты, спорящие и договаривающиеся друг с другом — так называемая society of thought («общество мышления»). Не одна мыслительная цепочка, а целая «команда» точек зрения Анализируя внутренние треки рассуждений DeepSeek‑R1, QwQ‑32B и базовых моделей, исследователи увидели поразительное: Во время решения задач модели запускают внутренние диалоги, где разные «персонажи» спорят, задают вопросы, выражают сомнения, предлагают альтернативы и объединяют противоречия.

За последние два года мы наблюдаем скачок в рассуждениях LLM‑моделей: DeepSeek‑R1, OpenAI o‑серия, QwQ‑32B — все они уверенно обходят обычные инструкционные модели в математике, логике, сложном планировании. На поверхности объяснение казалось простым: длиннее Chain‑of‑Thought → больше вычислений → лучше результат.

Но новое исследование Google, Чикагского университета и ряда институтов предлагает куда более глубокий ответ: сильные reasoning‑модели мыслят не «дольше», а «социальнее».
Внутри них возникают
взаимодействующие роли, мини‑агенты, спорящие и договаривающиеся друг с другом — так называемая society of thought («общество мышления»).

Не одна мыслительная цепочка, а целая «команда» точек зрения

Анализируя внутренние треки рассуждений DeepSeek‑R1, QwQ‑32B и базовых моделей, исследователи увидели поразительное:

Во время решения задач модели запускают внутренние диалоги, где разные «персонажи» спорят, задают вопросы, выражают сомнения, предлагают альтернативы и объединяют противоречия.

Это не внешнее вмешательство — это спонтанно возникающая структура, которую отдельные токены и паттерны активаций мозга модели отражают как:

  • вопросы → ответы
  • смена точки зрения
  • конфликт позиций
  • примирение и объединение гипотез
  • эмоциональные сигналы вроде удивления («Oh!», «Wait…»)

По сути, это внутренний дебат‑клуб, а не линейная логическая лента.

Почему это важно: «внутренняя дискуссия» улучшает точность даже без увеличения вычислений

Ключевой вывод экспериментов:

При одинаковой длине рассуждений, модели с выраженной диалоговой структурой дают значительно более точные ответы.

Это означает: прирост reasoning‑способностей не сводится к «больше шагов → лучше результат».

Google утверждает:
повышение разнообразия перспектив + внутренняя структура спора = эффективный поиск решения.

Это очень похоже на коллективный интеллект людей:
группы специалистов outperform одного суперэксперта, если внутри группы есть разнообразие ролей и механизмы конфликта/согласования.

DeepSeek‑R1 vs DeepSeek‑V3: почему R1 умнее

Исследование показывает разрыв даже между двумя моделями DeepSeek:

DeepSeek‑R1:

  • больше переключает точки зрения
  • больше создаёт внутренние конфликты
  • чаще задаёт вопросы
  • активнее объединяет альтернативы
  • использует позитивные и негативные социальные роли

Это напоминает обсуждение между экспертами.

DeepSeek‑V3:

  • ровный, однотонный, «монотонный» стиль
  • нет смены позиции
  • нет самокритики
  • нет конфликта
  • чистая линейная цепочка рассуждений

Это похоже на устное изложение, а не поиск.

«Эмоциональные роли» тоже помогают решать задачи

Используя классическую психологическую модель Bales IPA, исследователи нашли в reasoning‑следах DeepSeek‑R1 следующие социальные роли:

  • запрашивание информации
  • выдача рекомендации
  • несогласие
  • напоминание
  • поддержка
  • напряжение
  • снятие напряжения

И что ещё удивительнее:

эти роли возникают в сбалансированных парах.

Это значит, что модель не просто выражает конфликт, а сама же его и сглаживает.

Эксперимент: усиливаем один «социальный признак» → точность удваивается

Учёные нашли конкретный интерпретируемый внутренний признак модели — Feature 30939, который отвечает за эмоции удивления/инсайта («Oh!», «Wait…»).

Когда они усилили его (+10):

  • точность решения задач типа Countdown выросла с 27.1% → 54.8%
    (рост в 2 раза!)

Когда приглушили (–10):

  • точность упала до 23.8%

То есть сам факт появления удивления, сомнений, смены направления — улучшает поиск решения.

Модели обучаются «дебатировать» даже если им платят только за правильные ответы

Ещё один эксперимент: reinforcement learning, где единственная награда — правильный ответ.

Что происходит?

  • модель сама начинает генерировать внутренние вопросы,
  • сама начинает создавать альтернативные гипотезы,
  • сама усиливает конфликт и последующее согласование.

То есть диалоговая структура возникает как оптимальная стратегия решения задач.

Ей не нужно объяснять, как размышлять — она сама до этого доходит.

Главный вывод Google: будущее AI — это «организация разума», а не просто масштаб

Исследователи предлагают новое направление:

Совместное моделирование множества внутренних агентов как систематический способ усиления reasoning‑способностей.

То есть:

  • масштаб → даёт знания
  • вычисления → дают возможность думать дольше
  • структура внутреннего общения → даёт способность думать лучше

Это открывает путь к моделям, которые:

  • имеют множество ролей (скептик, оптимист, математик, критик)
  • ведут внутренние дебаты
  • собирают коллективное решение
  • становятся более надёжными в сложных задачах

Мы движемся к архитектуре, напоминающей не одиночный мозг, а команду специалистов внутри одной нейросети.

Итог: DeepSeek‑R1 умен не потому, что думает «дольше», а потому что думает «коллективно»

Новое исследование Google переворачивает наше понимание reasoning‑моделей:

  • интеллект — это не длина CoT
  • не количество токенов
  • и даже не глубина слоёв

Интеллект — это структурированное разнообразие мышления.

DeepSeek‑R1 делает внутри себя то, что делает сильная исследовательская команда:
спрашивает, спорит, сомневается, меняет точку зрения, объединяет решения.

И, возможно, именно так мы впервые увидели рождение новой когнитивной формы —
искусственной коллективной интуиции.

Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.

ИИ сегодня — ваше конкурентное преимущество завтра!

Тел. +7 (985) 982-70-55

E-mail sms_systems@inbox.ru

Сайт https://www.smssystems.ru/razrabotka-ai/