Многие сегодня обращаются к ChatGPT за объяснением симптомов, но мало кто задумывается, насколько эти ответы точны и безопасны. Медики напоминают: искусственный интеллект не обязан соблюдать медицинскую тайну, не всегда опирается на свежие клинические рекомендации и не несёт ответственности за последствия. Главный врач из Тольятти Сергей Тетюшкин рассказал, почему опасно слепо верить чат-ботам и как использовать их без вреда для здоровья. Несмотря на растущее доверие пользователей к нейросетям, советы ИИ не могут заменить консультацию специалиста и иногда представляют реальную угрозу. Так, 60‑летний пациент, следуя рекомендации ChatGPT, заменил обычную соль на бромид натрия. Результат — тяжёлое отравление, три недели в психиатрической клинике. Бромизм сопровождается спутанностью сознания, заторможенностью, бредом, галлюцинациями и психозами. Эксперт подчёркивает: ИИ не знает вашей медицинской истории, не способен оценить срочность ситуации, а предоставляемая им информация может быть ус