Исследователи из Google и Чикагского университета обнаружили, что продвинутые reasoning-модели, такие как DeepSeek-R1 и QwQ-32B, демонстрируют уникальный процесс "мышления вслух". Этот феномен, названный "обществом мыслей", заключается в симуляции внутреннего диалога между различными "экспертами" с разными точками зрения и специализациями. Анализ более 8000 задач показал, что reasoning-модели активно используют паттерны диалога: вопросы, ответы, смену перспективы, конфликт мнений и поиск компромисса. В отличие от них, обычные модели аналогичного размера выдают более односторонние ответы, лишенные внутренней дискуссии. Исследователи выявили "фичу разговорного удивления" в активациях модели – нейронный паттерн, реагирующий на слова, указывающие на смену точки зрения. Усиление этой фичи привело к значительному повышению точности в арифметических задачах, а подавление – к ухудшению результатов. Эксперименты также показали, что диалоговая структура ускоряет процесс обучения. Модели, предвар