52 подписчика
Чем больше, тем хуже? 😕
Исследователи выявили, что более крупные языковые модели, такие как GPT-4, дают больше неверных ответов по мере роста их объема.
В процессе анализа трех основных моделей — GPT, Llama и Bloom — ученые обнаружили, что современные версии чаще дают неверную информацию.
Такое поведение связано с тем, что улучшенные модели стараются избегать уклончивых ответов, а это может привести к тому, что они попросту «выдумывают» ложные факты.
Такое поведение моделей вызывает опасения у учёных, ведь пользователи зачастую переоценивают точность чат-ботов. И кто знает, к чему может привести такая дезинформация.
Около минуты
27 сентября 2024