Добавить в корзинуПозвонить
Найти в Дзене
Нейрозона сегодня

ИИ спорит сам с собой: новый феномен "общества мыслей"

Исследователи из Google и Чикагского университета обнаружили, что продвинутые reasoning-модели, такие как DeepSeek-R1 и QwQ-32B, демонстрируют уникальный процесс "мышления вслух". Этот феномен, названный "обществом мыслей", заключается в симуляции внутреннего диалога между различными "экспертами" с разными точками зрения и специализациями. Анализ более 8000 задач показал, что reasoning-модели активно используют паттерны диалога: вопросы, ответы, смену перспективы, конфликт мнений и поиск компромисса. В отличие от них, обычные модели аналогичного размера выдают более односторонние ответы, лишенные внутренней дискуссии. Исследователи выявили "фичу разговорного удивления" в активациях модели – нейронный паттерн, реагирующий на слова, указывающие на смену точки зрения. Усиление этой фичи привело к значительному повышению точности в арифметических задачах, а подавление – к ухудшению результатов. Эксперименты также показали, что диалоговая структура ускоряет процесс обучения. Модели, предвар

Исследователи из Google и Чикагского университета обнаружили, что продвинутые reasoning-модели, такие как DeepSeek-R1 и QwQ-32B, демонстрируют уникальный процесс "мышления вслух". Этот феномен, названный "обществом мыслей", заключается в симуляции внутреннего диалога между различными "экспертами" с разными точками зрения и специализациями.

Анализ более 8000 задач показал, что reasoning-модели активно используют паттерны диалога: вопросы, ответы, смену перспективы, конфликт мнений и поиск компромисса. В отличие от них, обычные модели аналогичного размера выдают более односторонние ответы, лишенные внутренней дискуссии.

Исследователи выявили "фичу разговорного удивления" в активациях модели – нейронный паттерн, реагирующий на слова, указывающие на смену точки зрения. Усиление этой фичи привело к значительному повышению точности в арифметических задачах, а подавление – к ухудшению результатов.

Эксперименты также показали, что диалоговая структура ускоряет процесс обучения. Модели, предварительно обученные на синтетических диалогах, быстрее достигали высокой точности по сравнению с моделями, использующими традиционный chain-of-thought подход.

В итоге, можно сказать, что искусственный интеллект, оказывается, тоже любит поспорить, прежде чем прийти к выводу. Видимо, даже машинам иногда нужно высказаться, чтобы почувствовать себя умнее.