Найти тему
52 подписчика

Чем больше, тем хуже? 😕


Исследователи выявили, что более крупные языковые модели, такие как GPT-4, дают больше неверных ответов по мере роста их объема.

В процессе анализа трех основных моделей — GPT, Llama и Bloom — ученые обнаружили, что современные версии чаще дают неверную информацию.

Такое поведение связано с тем, что улучшенные модели стараются избегать уклончивых ответов, а это может привести к тому, что они попросту «выдумывают» ложные факты.

Такое поведение моделей вызывает опасения у учёных, ведь пользователи зачастую переоценивают точность чат-ботов. И кто знает, к чему может привести такая дезинформация.

Чем больше, тем хуже? 😕  Исследователи выявили, что более крупные языковые модели, такие как GPT-4, дают больше неверных ответов по мере роста их объема.
Около минуты