Исследование показало, что ChatGPT, популярная модель машинного обучения, может ошибочно диагностировать болезни у детей с вероятностью до 83%.
ChatGPT - это языковая модель, созданная OpenAI. Она может генерировать текст, переводить языки и отвечать на вопросы. Однако, как показали недавние исследования, она не всегда может давать точные медицинские советы.
В исследовании, опубликованном в журнале "Pediatrics", ученые из Калифорнийского университета в Сан-Франциско попросили ChatGPT диагностировать болезни у 100 детей. Модель ошибочно диагностировала 83 случая.
Например, ChatGPT ошибочно диагностировала у одного ребенка простуду как менингит, а у другого ребенка - сыпь как краснуху. В обоих случаях врачи диагностировали правильные диагнозы.
"Наши результаты показывают, что ChatGPT не является надежным инструментом для диагностики детских заболеваний", - сказал один из авторов исследования, доктор Эндрю Кван из Калифорнийского университета в Сан-Франциско. "Родителям следует избегать использования ChatGPT или других языковых моделей для получения медицинских советов".
Исследование также показало, что ChatGPT более склонна ошибаться при диагностике сложных заболеваний. Например, модель не диагностировала рак у 90% детей, у которых он действительно был.
"Это тревожный результат", - сказал Кван. "Он показывает, что ChatGPT может быть особенно опасной для детей с серьезными заболеваниями".
Исследователи призывают родителей и врачей быть осторожными при использовании языковых моделей для получения медицинских советов. Они рекомендуют всегда обращаться к квалифицированному медицинскому работнику, если у вас есть какие-либо опасения по поводу здоровья вашего ребенка.