Добавить в корзинуПозвонить
Найти в Дзене
TVcenter ✨️ News

Чат-боты ошибаются в половине медицинских ответов: исследование

Чат-боты на базе искусственного интеллекта в 49,6% случаев давали неточные ответы на запросы в области медицины и здоровья. К такому выводу пришли авторы исследования, опубликованного в медицинском журнале BMJ Open. Учёные протестировали пять популярных ботов, среди которых были DeepSeek и ChatGPT. Каждому чат-боту было задано по десять вопросов, касающихся рака, вакцинации, стволовых клеток, питания и спорта. Ответы затем оценивались экспертами. Почти половина (49,6%) содержала искажения: 30% ответов имели незначительные неточности, а в 19% случаев было зафиксировано множество ошибок. Наибольшее количество неточностей было выявлено у чат-бота Grok. Лучше всего ИИ-системы показали себя в темах вакцинации и рака, однако справились хуже всего с вопросами о питании. Отказ отвечать произошёл лишь в двух случаях из 250. Авторы исследования также отметили, что ни один из протестированных ИИ не смог предоставить корректный список источников — все они были выдуманы. Сложность ответов соответст

Чат-боты на базе искусственного интеллекта в 49,6% случаев давали неточные ответы на запросы в области медицины и здоровья. К такому выводу пришли авторы исследования, опубликованного в медицинском журнале BMJ Open. Учёные протестировали пять популярных ботов, среди которых были DeepSeek и ChatGPT.

Каждому чат-боту было задано по десять вопросов, касающихся рака, вакцинации, стволовых клеток, питания и спорта. Ответы затем оценивались экспертами. Почти половина (49,6%) содержала искажения: 30% ответов имели незначительные неточности, а в 19% случаев было зафиксировано множество ошибок.

Наибольшее количество неточностей было выявлено у чат-бота Grok. Лучше всего ИИ-системы показали себя в темах вакцинации и рака, однако справились хуже всего с вопросами о питании. Отказ отвечать произошёл лишь в двух случаях из 250.

Авторы исследования также отметили, что ни один из протестированных ИИ не смог предоставить корректный список источников — все они были выдуманы. Сложность ответов соответствовала текстам для студентов второго курса.

Исследователи заключили, что чат-боты продемонстрировали неудовлетворительные результаты в областях, где активно распространяется ложная информация. Без общественного просвещения и контроля их применение может способствовать усилению дезинформации. Подчёркивается, что ИИ может быть полезным инструментом, но полагаться на него в вопросах здоровья без консультации с врачом пока опасно.

➔ Раскрываем секреты ★ звёзд шоу-бизнеса в нашем Telegram ☚