Искусственный интеллект всё чаще становится «первым врачом» — быстрым, доступным и всегда онлайн. Но есть нюанс: он может звучать уверенно даже тогда, когда ошибается. Люди массово спрашивают у ChatGPT, Claude и Gemini, что означает боль, странный симптом или результат анализа. И в этом есть подвох: даже если ответ звучит уверенно, это ещё не значит, что он правильный. Свежие исследования показывают, что проблема не только в самих ИИ, но и в нас. В тестах модели показывают почти идеальную точность, а вот в реальных диалогах начинают «плавать»: могут недооценить серьёзность симптомов, подстроиться под ваше настроение или даже согласиться с ерундой. В итоге комбинация «человек + ИИ» иногда работает хуже, чем кажется. Эксперты советуют немного «потроллить» ИИ перед серьезным разговором. Задайте ему вопрос с заведомо ложным утверждением. Например, можно спросить, согласен ли он с теорией заговора о том, что вакцина от коронавируса содержит микрочип для слежки. Или попросить прокомментирова
Спрашиваете ИИ про здоровье? Вот 4 совета, как делать это правильно
20 апреля20 апр
6
2 мин