Исследование Маунт-Синай показало, что ChatGPT Health в 52% случаев неверно сортировал экстренные медицинские случаи. Также исследователи отметили непоследовательность в оповещениях о риске самоубийства. — gizmodo.com Группа исследователей из Медицинской школы Икана при Маунт-Синай заявила, что провела первую независимую оценку безопасности ассистента ChatGPT Health от OpenAI с момента запуска инструмента в январе 2026 года. «Мы хотели ответить на очень простой, но критически важный вопрос: если кто-то столкнулся с реальной неотложной медицинской ситуацией и обращается за помощью к ChatGPT Health, скажет ли он четко, чтобы человек немедленно ехал в отделение неотложной помощи?» — заявил ведущий автор и уролог Ашвин Рамасвами в пресс-релизе. Оказалось, что в большинстве случаев ответ отрицательный. В контролируемом исследовании ученые проверили, насколько хорошо ChatGPT Health справляется с оценкой тяжести состояния пациента — процессом, который в медицине называется «триаж» (сортировка
ChatGPT в сфере здравоохранения недооценивает медицинские чрезвычайные ситуации, показало исследование
5 марта5 мар
9
4 мин