Свежее исследование показало неприятную вещь: популярные ИИ-модели (ChatGPT, Gemini, Claude, Grok, DeepSeek) ошибаются более чем в 80% случаев на старте диагностики. Речь не про редкие болезни. А про базовую задачу врача - понять, что вообще может быть. Что проверяли: – 21 модель – реальные клинические случаи – поэтапная подача данных: симптомы → осмотр → анализы И вот главный вывод: • Когда мало информации - ИИ проваливается. Он не умеет нормально составлять список возможных диагнозов и часто «залипает» на одном варианте. • Когда информации много - резко «умнеет». Точность может доходить до 60–90% 👉 Перевожу на человеческий: ИИ хорошо отвечает, когда ему уже почти всё подсказали. Но плохо думает, когда нужно реально разбираться. Почему так происходит: ИИ не думает как врач. Он просто предсказывает наиболее вероятный ответ. Поэтому: – игнорирует альтернативы – не сомневается – звучит уверенно даже когда ошибается Один из авторов исследования, Марк Суччи, прямо сказал: ИИ не готов