84 подписчика
Испытуемые читали 1.000 разнообразных предложений во время регистрации фМРТ
Кодирующую модель на основе GPT обучили предсказывать активацию языковой сети левого полушария для заданного предложения
С помощью этой модели из ~1.800.000 предложений отобрали те, которые должны больше всего усиливать или подавлять активность языковой сети
Эти предсказания подтвердились на новых испытуемых с r=0.43, объясняя 0.69 вариативности данных, не связанной с шумом и межиндивидуальными вариациями
Наиболее активирующими оказались предложения, точно соответствующие нормам языка, но необычные (неожиданные) по грамматике или значению
Greta Tuckute ... Evelina Fedorenko
Driving and suppressing the human language network using large language models
Nature Human Behaviour, 03 January 2024
https://doi.org/10.1038/s41562-023-01783-7 препринт на bioRxiv: https://doi.org/10.1101/2023.04.16.537080
Driving and suppressing the human language network using large language models
Jan 03, 2024
Greta Tuckute
Данные и код: https://github.com/gretatuckute/drive_suppress_brains/
Около минуты
5 января