Исследование показало, что ИИ-бот Microsoft Copilot может предоставлять неточные медицинские советы, которые в некоторых случаях угрожают здоровью. В 22% случаев его рекомендации могли привести к смерти или серьёзным последствиям. Современные чат-боты на базе искусственного интеллекта, такие как Microsoft Copilot, всё ещё далеки от идеала и часто выдают опасные рекомендации, особенно когда дело касается медицины. Исследователи из Германии и Бельгии провели эксперимент, чтобы проверить, насколько точно Copilot справляется с медицинскими вопросами, и результаты оказались тревожными. В рамках исследования бот отвечал на 10 самых популярных вопросов, которые задают жители США о лекарствах и медицинских препаратах. В общей сложности было проанализировано 500 ответов, которые оценивались по таким параметрам, как точность, полнота и потенциальная опасность для здоровья. Исследование показало, что только 54% ответов Copilot соответствовали научному консенсусу, а в 24% случаев бот выдавал невер
Этот ИИ дает советы о здоровье, которые приводят к смерти в ряде случаев
15 октября 202415 окт 2024
21
1 мин