В ходе нового исследования, проведенного Калифорнийским университетом в Сан-Франциско (UC San Francisco), было обнаружено, что использование модели искусственного интеллекта (ИИ) ChatGPT в отделении неотложной помощи (ОНП) может привести к назначению ненужных медицинских процедур и госпитализации пациентов, которые в этом не нуждались. Исследователи пришли к выводу, что модель ИИ не может заменить клиническое суждение врача и не способна точно определить, какие действия необходимы для лечения пациента. В рамках исследования команда проанализировала данные о 1000 посещений ОНП и сравнила рекомендации, предоставленные моделью ИИ ChatGPT-3.5 и ChatGPT-4, с решениями, которые приняли врачи-ординаторы. Результаты показали, что модели ИИ склонны рекомендовать больше услуг, чем это необходимо, и их точность ниже, чем у врачей. ChatGPT-4 был на 8% менее точным, чем ординаторы, а ChatGPT-3.5 — на 24% менее точным. Исследователи считают, что это связано с тем, что модели ИИ обучаются на данных и
Исследование показало, что, когда дело доходит до неотложной помощи, ChatGPT назначает слишком много лекарств.
8 октября 20248 окт 2024
11
1 мин