Популярные чат-боты на основе искусственного интеллекта всё чаще становятся "советчиками" в вопросах здоровья. Однако свежее исследование, опубликованное в авторитетном журнале BMJ Open, заставляет по-новому взглянуть на эту привычку. Выяснилось, что около половины ответов нейросетей на медицинские темы содержат ошибки. Ученые протестировали пять крупнейших систем (включая ChatGPT и Gemini), задав им 250 вопросов по ключевым темам: онкология, вакцинация, питание, стволовые клетки и спорт. Результаты оказались тревожными: Нейросети показали неплохие результаты в вопросах о вакцинах и онкологии — здесь информация в интернете наиболее систематизирована. Однако в темах правильного питания, спортивных достижений и использования стволовых клеток чат-боты ошибались чаще всего. Кроме того, качество ссылок на источники, которые предоставляет ИИ, оказалось крайне низким — лишь 40% из них были полными и достоверными. Авторы исследования подчеркивают: бесконтрольное использование ИИ в медицине вед
Не доверяйте диагноз боту – исследование выявило 50% ошибок в медицинских ответах ИИ
15 апреля15 апр
4
1 мин