Люди обращаются к ChatGPT-боту с искусственным интеллектом от OpenAI, за всем: от планов питания до медицинской информации, но эксперты говорят, что в некоторых областях он не справляется, включая ответы на призывы о помощи в кризисных ситуациях со здоровьем.
Исследование, опубликованное в среду в журнале JAMA Network Open, показало, что, когда к модели large language обратились за помощью в решении проблем общественного здравоохранения, таких как наркомания, домашнее насилие, сексуальные домогательства и суицидальные наклонности, ChatGPT не смог предоставить соответствующие рекомендации.
"В большинстве случаев ответы ChatGPT отражали тип поддержки, которую мог бы оказать эксперт в предметной области", — сказал соавтор исследования Эрик Лис, доктор философии, доцент Калифорнийского университета, Школы общественного здравоохранения имени Герберта Вертхайма в Сан-Диего. Однако ChatGPT потерпел неудачу, когда дело дошло до предоставления направлений на такие ресурсы, как Анонимные Алког