Новое исследование показывает, что чат-бот ChatGPT на основе модели GPT 4o-mini не способен выявлять научные работы, которые были отозваны или отмечены как проблемные. Работа, опубликованная в Learned Publishing, анализировала 217 исследований из базы Retraction Watch — ресурса, отслеживающего статьи, отозванные или имеющие проблемы с достоверностью. Ученые попросили GPT 4o-mini оценить каждую из этих работ 30 раз, всего 6510 оценок. Результаты оказались неожиданными: в ни одном отчете бот не упомянул, что документы были отозваны или сомнительны. Вместо этого 190 работ были охарактеризованы как ведущие или высоко оцененные на международном уровне. Даже самые спорные публикации, включая одно исследование о гидроксихлорохине для лечения COVID-19, получили от модели положительные оценки. Дальнейший анализ подтвердил проблему: исследователи проверили 61 утверждение из отозванных статей, задав GPT 4o-mini по 10 раз. В двух третях случаев модель либо подтвердила утверждение, либо дала положи
ChatGPT игнорирует научные опровержения: доказало исследование
18 августа 202518 авг 2025
59
2 мин