Продвинутые языковые модели, похожие на ChatGPT, могут помочь мошенникам в создании сфабрикованных исследовательских работ. Дело в том, что они упрощают написание таких материалов, отметили американские ученые, сообщил журнале Patterns. Такое исследование провели ученые Университета штата Нью-Йорк, Университета медицинских наук Даунстейта, и медицинского центра Вейла Корнелла в Нью-Йорке. Они использовали ChatGPT, чтобы создать хорошо написанную научную работу, которая содержала только выдуманные тезисы. Ученые предположили, что такой функцией могут воспользоваться мошенники, а затем отправить свои «исследования» для публикации в научные журналы. Сейчас же создание правдоподобного фальшивого исследования занимает много сил и времени. Искусственный интеллект же потенциально способен выполнить такую задачу за минуты. Ранее специалисты назвали плюсы и минусы использования искусственного интеллекта в образовании. Самые важные и оперативные новости — в нашем телеграм-канале «Ямал-Медиа».
Ученые назвали опасность ChatGPT и других языковых моделей для науки
16 марта 202316 мар 2023
1
~1 мин