Найти тему
84 подписчика

Испытуемые читали 1.000 разнообразных предложений во время регистрации фМРТ

Кодирующую модель на основе GPT обучили предсказывать активацию языковой сети левого полушария для заданного предложения

С помощью этой модели из ~1.800.000 предложений отобрали те, которые должны больше всего усиливать или подавлять активность языковой сети

Эти предсказания подтвердились на новых испытуемых с r=0.43, объясняя 0.69 вариативности данных, не связанной с шумом и межиндивидуальными вариациями

Наиболее активирующими оказались предложения, точно соответствующие нормам языка, но необычные (неожиданные) по грамматике или значению

Greta Tuckute ... Evelina Fedorenko
Driving and suppressing the human language network using large language models
Nature Human Behaviour, 03 January 2024


Driving and suppressing the human language network using large language models
Jan 03, 2024
Greta Tuckute

Около минуты