Статья подготовлена изданием Лаборант - журнал об аналитической химии. Подписывайтесь так же на нашу научную папку в телеграм. Новое исследование, опубликованное в Nature Human Behavior, показало, что крупные языковые модели (LLM) более точно предсказывают результаты нейронаучных исследований, чем эксперты-люди. "С появлением генеративного ИИ, подобного ChatGPT, многие исследования сосредоточились на способности языковых моделей отвечать на вопросы, демонстрируя их замечательное умение обобщать знания из обширных тренировочных данных", - сообщил ведущий автор исследования, доктор Кен Луо из Университетского колледжа Лондона. "Однако вместо акцента на их способности извлекать прошлую информацию, мы исследовали возможность LLM синтезировать знания для предсказания будущих результатов", - добавил он. Для исследования ученые разработали инструмент BrainBench для оценки способности LLM предсказывать результаты в нейронауке. BrainBench содержит пары аннотаций нейронаучных исследований в пяти
ИИ превзошел экспертов в прогнозировании результатов нейронаучных экспериментов
21 декабря 202421 дек 2024
2 мин