Добавить в корзинуПозвонить
Найти в Дзене
DigiNews

Интеграция Apple Health с ChatGPT может приводить к ложным и противоречивым диагнозам.

Расследование Washington Post выявило критические ошибки в работе ChatGPT Health после интеграции с Apple Health, превращая инструмент для анализа здоровья в потенциально опасный гаджет. Чат-бот выдает противоречивые диагнозы, что ставит под сомнение планы Apple по усилению Health с помощью ИИ. Недавняя интеграция Apple Health с ChatGPT Health теперь позволяет тем, кто считает современные достижения в области ИИ не более чем усовершенствованной итерацией «Китайской комнаты», заявить о своей правоте. Это стало возможным благодаря сенсационному расследованию The Washington Post, которое вскрыло присущие чат-боту недостатки и несоответствия в постановке медицинских диагнозов. В начале января мы отмечали, что новый сервис ChatGPT Health от OpenAI был разработан для предоставления пользователям точной информации о здоровье. Для получения личных сведений пользователи могли безопасно подключать медицинские карты и приложения для отслеживания состояния здоровья — такие как Apple Health, Functi

Расследование Washington Post выявило критические ошибки в работе ChatGPT Health после интеграции с Apple Health, превращая инструмент для анализа здоровья в потенциально опасный гаджет. Чат-бот выдает противоречивые диагнозы, что ставит под сомнение планы Apple по усилению Health с помощью ИИ.

Недавняя интеграция Apple Health с ChatGPT Health теперь позволяет тем, кто считает современные достижения в области ИИ не более чем усовершенствованной итерацией «Китайской комнаты», заявить о своей правоте. Это стало возможным благодаря сенсационному расследованию The Washington Post, которое вскрыло присущие чат-боту недостатки и несоответствия в постановке медицинских диагнозов.

Интеграция Apple Health и ChatGPT Health не только не оправдывает ожиданий, но и превращается в откровенно опасный инструмент

В начале января мы отмечали, что новый сервис ChatGPT Health от OpenAI был разработан для предоставления пользователям точной информации о здоровье. Для получения личных сведений пользователи могли безопасно подключать медицинские карты и приложения для отслеживания состояния здоровья — такие как Apple Health, Function и MyFitnessPal — чтобы ChatGPT мог помочь в интерпретации недавних результатов анализов, подготовке к визитам к врачу, предоставлении советов по диете и тренировкам, а также разъяснении преимуществ и недостатков различных страховых планов на основе имеющихся данных о здравоохранении.

Однако недавнее расследование The Washington Post обнажило серьезные недостатки в полагании на медицинскую интерпретацию личных данных, полученных из таких сервисов, как Apple Health, с помощью ChatGPT Health.

Так, репортер Джеффри Фаулер предоставил ChatGPT Health данные о своих 29 миллионах шагов и 6 миллионах измерений пульса из приложения Apple Health, попросив чат-бота оценить состояние его сердечно-сосудистой системы. Запрос привел к оценке «F» (неудовлетворительно). Однако лечащий врач Фаулера немедленно отверг эту оценку, заявив, что риск сердечных заболеваний у пациента настолько низок, что его страховая компания, вероятно, откажется покрывать дополнительные тесты, чтобы опровергнуть диагноз чат-бота.

Что еще более тревожно, ChatGPT Health выдавал Фаулеру разные оценки при многократном повторении одного и того же запроса: оценки колебались между «B» (хорошо) и «F». Очевидно, что при таких резких колебаниях сервис не имеет существенной пользы для диагностики или улучшения состояния здоровья, по крайней мере, в его нынешнем виде. Это также несет серьезные последствия для амбиций Apple наделить сервис Apple Health дополнительными возможностями, связанными с ИИ.

Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.

Автор – Rohail Saleem

Оригинал статьи

Apple
384,5 тыс интересуются