Добавить в корзинуПозвонить
Найти в Дзене
OVERCLOCKERS.RU

Live Science: ИИ получил возможность перебивать собеседника в случае обнаружения ошибки в диалоге

Исследователи из университета электрокоммуникаций в Токио задумались, почему общение с нейросетями кажется таким неестественным. В реальной жизни люди перебивают, молчат в нерешительности или встревают в разговор, когда считают нужным. Чат-боты, напротив, строго соблюдают очередность - получили запрос, ответили, ждут следующего. Изображение:GigaChat ai Ученые решили добавить в поведение моделей человеческие черты. Они взяли за основу пять классических типов личности из психологии: открытость к новому опыту, добросовестность, экстраверсию, доброжелательность и невротизм (эмоциональную неустойчивость). Каждой модели присвоили свой профиль. Технически языковые модель доработали так, чтобы боты обрабатывали диалог не целиком, а по предложениям. Это позволило управлять потоком беседы. Также было введено понятие срочности. Если модель замечала ошибку или важный момент, она получала право вмешаться немедленно. Если сказать было нечего, она просто молчала. Эффект проверили на тысяче вопросов и

Исследователи из университета электрокоммуникаций в Токио задумались, почему общение с нейросетями кажется таким неестественным. В реальной жизни люди перебивают, молчат в нерешительности или встревают в разговор, когда считают нужным. Чат-боты, напротив, строго соблюдают очередность - получили запрос, ответили, ждут следующего.

Изображение:GigaChat ai

Ученые решили добавить в поведение моделей человеческие черты. Они взяли за основу пять классических типов личности из психологии: открытость к новому опыту, добросовестность, экстраверсию, доброжелательность и невротизм (эмоциональную неустойчивость). Каждой модели присвоили свой профиль.

Технически языковые модель доработали так, чтобы боты обрабатывали диалог не целиком, а по предложениям. Это позволило управлять потоком беседы. Также было введено понятие срочности. Если модель замечала ошибку или важный момент, она получала право вмешаться немедленно. Если сказать было нечего, она просто молчала.

Эффект проверили на тысяче вопросов из теста MMLU. Это сложный экзамен для нейросетей, включающий науку и гуманитарные области. Когда один агент ошибался, точность при обычном поочередном общении составила около 69%. При динамичном порядке без жесткой очереди точность выросла до 74%. Когда разрешили перебивать, точность превысила 79%. В более сложном сценарии, где ошибались сразу два агента, разница оказалась еще заметнее. Фиксированный порядок дал всего 37%, динамичный около 44%, а с перебиваниями почти 50%.

Авторы считают, что будущее за коллективным интеллектом, где люди и машины будут работать вместе. Искусственная и напыщенная вежливость не всегда полезна. Иногда грубость и настойчивость помогают найти правильный ответ.

Читайте далее на сайте

-2

Дата-центры против DGX Spark — почему рынок ИИ может лопнуть раньше своей монетизации

-3

NVIDIA возглавит глобальную гонку за 6G с упором на ИИ

-4

Правительство США переходит к использованию ИИ на основе моделей OpenAI

-5

Amazon приобрела кампус университета в США для строительства дата-центра