16 подписчиков
Причем тут игры? 🤪
Теперь модель, прежде чем выдать ответ, сперва генерит кучу вариантов и потом сама с собой их обсуждает. Сценарий такой: на один и тот же запрос модель выдаёт несколько разных вариантов ответа, причём ответы могут быть с разных углов зрения. Это как если бы ты сам себе кинул пять вариантов решения одной и той же задачи и начал бы их сравнивать. Тут и начинается самое интересное — модель вступает в "игру в консенсус". Она как будто начинает спорить сама с собой: какой ответ точнее, какой понятнее, какой вообще полный бред.
Зачем всё это? Чтобы, в итоге, дать тебе не просто какой-то ответ, а наиболее выверенный и логичный вариант. Короче, модель типа учится сама у себя — подкидывает гипотезы, сверяет и согласовывает, пока не придёт к адекватному выводу. Меньше рандома, больше точности и разумности в её ответах. Ты не получишь что-то, что модель вытащила от балды, потому что она несколько раз подумает, оценит и сверит все возможные варианты, прежде чем тебе что-то сказать.
На практике это прокачает много областей. Чат-боты начнут давать осмысленные и проработанные ответы, даже если вопрос сложный или сформулирован криво. Переводчики и системы поиска информации начнут работать умнее, ведь модель не просто сразу даст тебе первый попавшийся ответ, а будет перебирать и сравнивать разные варианты, пока не придёт к чему-то логичному.
Примерно как ты с другом сидишь, что-то обсуждаешь, и в конце вы приходите к общему мнению. Так и тут — модель обсуждает сама с собой, чтобы не тупануть и выдать то, что реально соответствует твоему запросу.
🤔Как это меняет игру? Ну, во-первых, качество ответов взлетает, во-вторых, надёжность моделей увеличивается — ты не будешь получать какой-то рофл или бред. Ну и дополнительных данных для дообучения почти не нужно, модель просто начинает эффективнее использовать уже имеющиеся знания.
Короче, это очередной шаг к более умным и понятным ИИ. Думаю, будущее за этим, и совсем скоро наши любимые боты будут мыслить не хуже нас.
1 минута
21 августа