Всемирная Организация Здравоохранения внедряет в свою сферу искусственный интеллект для предоставления базовой медицинской информации через человекоподобного аватара. Однако, несмотря на чувствительные реакции бота на выражения пользователей, он не всегда понимает их.
Sarah, или Smart AI Resource Assistant for Health, является виртуальным медицинским работником, доступным для общения 24/7 на восьми языках. Она разъясняет темы, такие как психическое здоровье, табачное употребление и здоровое питание. Это часть кампании ВОЗ по поиску технологий, способных обучать и заменять медицинский персонал в условиях его нехватки.
Прототип Sarah, представленный 2 апреля, не всегда дает точные ответы, так как данные ее обучения отстают от актуальных. Бот иногда выдает ошибочные ответы, что может приводить к дезинформации в области здравоохранения.
"Ему не хватает глубины," - отмечает Рамин Джаван, радиолог и исследователь из Университета Джорджа Вашингтона. Однако он считает, что это лишь первый шаг в развитии технологии.
ВОЗ утверждает, что Sarah предназначена для сотрудничества с исследователями и правительствами для обеспечения точного общественного здравоохранения. Организация призывает к советам по усовершенствованию бота, но отмечает, что работа над его улучшением продолжается. Однако, ВОЗ подчеркивает, что искусственный интеллект не способен полностью заменить общение с профессионалами здравоохранения. Ален Лабрик, директор ВОЗ по цифровому здравоохранению и инновациям, подчеркивает необходимость консультации с квалифицированными специалистами.
Sarah обучена с использованием программы ChatGPT 3.5 от OpenAI, что ограничивает ее актуальность медицинской информации. Она может давать неточные ответы или не располагать последними данными. Иногда даже собственные данные ВОЗ могут вводить Sarah в заблуждение. Например, она не смогла ответить на вопрос о местах проведения маммографии в Вашингтоне, округе Колумбия.
Эти проблемы не уникальны для развивающегося искусственного интеллекта. Исследователи из Университета Вандербильта обнаружили несколько случаев неправильных ответов в чат-боте на медицинские вопросы.