Вместо одной огромной модели используется группа более простых моделей, которые критикуют друг друга и по кругу улучшают общий ответ. Идея из исследования *Mixture-of-Models: Unifying Heterogeneous Agents via N-Way Self-Evaluating Deliberation*. В чём суть Систему строят не как один “мозг”, а как команду моделей: 1. Несколько разных LLM дают первоначальные ответы 2. Они читают ответы друг друга 3. Критикуют, дорабатывают и предлагают улучшения 4. Лучшие идеи проходят дальше 5. Процесс идёт раундами, пока качество растёт Это называется N-Way Self-Evaluating Deliberation — многостороннее самооценивание с повторным обсуждением. Почему это работает - Плохие ранние ответы можно исправить на следующих раундах - Ошибки одной модели подхватываются другими - Идеи не “залипают” в первой версии Чтобы ни одна модель не доминировала: - используется анонимная оценка - применяется квадратичное голосование, чтобы лучшая идея побеждала честно Роль брокера Специальный “брокер” выбирает, какие
✔️ Маленькие LLM вместе могут конкурировать с гигантскими моделями, если заставить их спорить правильно
ВчераВчера
30
1 мин