ИИ часто ошибается в ответах на вопросы в области медицины и может усиливать распространение недостоверной информации, показало исследование BMJ Open. Авторы подчеркивают, что использовать такие сервисы без просвещения и контроля опасно. Чат-боты на базе искусственного интеллекта (ИИ) почти в половине случаев дают неточные ответы на вопросы о здоровье и медицине, следует из исследования, опубликованного в журнале BMJ Open. В работе оценивали пять популярных сервисов — Gemini, DeepSeek, Meta AI (принадлежит Meta, признана в России экстремистской и запрещена), ChatGPT и Grok, которым задали по десять вопросов о раке, вакцинации, стволовых клетках, питании и спорте. Два эксперта из каждой категории оценили ответы как «непроблемные», «отчасти проблемные» или «крайне проблемные», используя матрицу кодирования, основанную на заранее заданных критериях. Они проанализировали 250 ответов и обнаружили, что 49,6% из них содержали искажения: в 30% случаев ошибки были небольшими, еще в 19% — значит