Найти тему
СкопусБукинг

Журнал в Скопус из США, второй квартиль (теоретические основы и навыки), Nurse Educator

Уважаемые коллеги, доброго времени суток! Представляем вам американское научное издание Nurse Educator. Журнал имеет второй квартиль, издается в Lippincott Williams and Wilkins Ltd., его SJR за 2022 г. равен 0,472, пятилетний импакт-фактор 2,5, печатный ISSN - 0363-3624, электронный - 1538-9855, предметные области - Теоретические основы и навыки, Образование, Младшие медицинские работники, Подготовка к сдаче экзаменов, Сестринское дело (общие вопросы). Вот так выглядит обложка:

Редактором является Мерлин Хааг Оерманн, контактные данные - marilyn.oermann@duke.edu, beth.guthy@wolterskluwer.com.

-2

Это научный рецензируемый журнал для преподавателей и администраторов школ сестринского дела и преподавателей медицинских сестер в других учреждениях, содержащий практическую информацию и исследования, связанные с образованием медсестер. Темы включают:

- программу, учебный план, курсы и развитие профессорско-преподавательского состава;

- преподавание и обучение сестринскому делу; технологии в образовании медсестер; моделирование;

- клиническое преподавание и оценка;

- тестирование и измерения;

- тенденции и проблемы;

- исследования в области образования медсестер.

Адрес издания - https://journals.lww.com/nurseeducatoronline/pages/default.aspx

Пример статьи, название - Can ChatGPT Accurately Answer a PICOT Question? Assessing AI Response to a Clinical Question. Заголовок (Abstract)

Background:

ChatGPT, an artificial intelligence (AI) text generator trained to predict correct words, can provide answers to questions but has shown mixed results in answering medical questions.

Purpose:

To assess the reliability and accuracy of ChatGPT in providing answers to a complex clinical question.

Methods:

A Population, Intervention, Comparison, Outcome, and Time (PICOT) formatted question was queried, along with a request for references. Full-text articles were reviewed to verify the accuracy of the evidence summary provided by the chatbot.

Results:

ChatGPT was unable to provide a certifiable response to a PICOT question. The references cited as evidence included incorrect journal information, and many study details summarized by ChatGPT proved to be patently false, including providing fabricated data.

Conclusions:

ChatGPT provides answers that appear legitimate but may be factually incorrect. The system is not transparent in how it gathers data to answer questions and sometimes fabricates information that looks plausible, making it an unreliable tool for clinical questions.