Найти в Дзене

Не верьте ChatGPT, когда речь идет о здоровье вашего ребенка

Исследование показало, что ChatGPT, популярная модель машинного обучения, может ошибочно диагностировать болезни у детей с вероятностью до 83%.

ChatGPT - это языковая модель, созданная OpenAI. Она может генерировать текст, переводить языки и отвечать на вопросы. Однако, как показали недавние исследования, она не всегда может давать точные медицинские советы.

В исследовании, опубликованном в журнале "Pediatrics", ученые из Калифорнийского университета в Сан-Франциско попросили ChatGPT диагностировать болезни у 100 детей. Модель ошибочно диагностировала 83 случая.

Например, ChatGPT ошибочно диагностировала у одного ребенка простуду как менингит, а у другого ребенка - сыпь как краснуху. В обоих случаях врачи диагностировали правильные диагнозы.

"Наши результаты показывают, что ChatGPT не является надежным инструментом для диагностики детских заболеваний", - сказал один из авторов исследования, доктор Эндрю Кван из Калифорнийского университета в Сан-Франциско. "Родителям следует избегать использования ChatGPT или других языковых моделей для получения медицинских советов".

Исследование также показало, что ChatGPT более склонна ошибаться при диагностике сложных заболеваний. Например, модель не диагностировала рак у 90% детей, у которых он действительно был.

"Это тревожный результат", - сказал Кван. "Он показывает, что ChatGPT может быть особенно опасной для детей с серьезными заболеваниями".

Исследователи призывают родителей и врачей быть осторожными при использовании языковых моделей для получения медицинских советов. Они рекомендуют всегда обращаться к квалифицированному медицинскому работнику, если у вас есть какие-либо опасения по поводу здоровья вашего ребенка.