Искусственный интеллект может помочь написать романтический стих или создать забавное изображение, но когда дело доходит до здоровья, к его советам стоит относиться со скепсисом. Врачи из Вашингтонского университета зафиксировали случай, достойный эпизода "Черного зеркала" – мужчина, следовавший диетическим рекомендациям ChatGPT, получил серьезное отравление бромидом и развил психоз. Согласно отчету, опубликованному в журнале Annals of Internal Medicine: Clinical Cases, пациент на протяжении трех месяцев намеренно употреблял бромид натрия по рекомендации чатбота. История началась с того, что мужчина, ранее изучавший питание в колледже, решил не просто снизить потребление натрия, а полностью исключить хлорид из своей диеты. Проще говоря, он хотел отказаться от соли. Не найдя подходящих рекомендаций в традиционных источниках, он обратился к ChatGPT с вопросом, чем можно безопасно заменить хлорид. ИИ предложил бромид в качестве альтернативы. Воодушевленный ответом, мужчина заказал в и
Мужчина получил психоз, следуя совету ChatGPT по снижению потребления соли
9 августа 20259 авг 2025
4
2 мин