Найти в Дзене
Загадки мира

Ложка цифровой соли: как мужчина чуть не умер, послушав ChatGPT

Случалось ли вам спрашивать у искусственного интеллекта совета по бытовым вопросам? А представляли ли, что простой запрос о здоровом питании может привести к психиатрической палате и борьбе за жизнь? История 60-летнего мужчины, который доверил ChatGPT выбор заменителя соли, — это идеальный триллер о слепом доверии к технологиям, где смешались научный прогресс, человеческая наивность и химия из
Оглавление

Случалось ли вам спрашивать у искусственного интеллекта совета по бытовым вопросам? А представляли ли, что простой запрос о здоровом питании может привести к психиатрической палате и борьбе за жизнь? История 60-летнего мужчины, который доверил ChatGPT выбор заменителя соли, — это идеальный триллер о слепом доверии к технологиям, где смешались научный прогресс, человеческая наивность и химия из школьного учебника.

Роковой совет: вместо безобидной приправы ИИ рекомендовал химическое соединение, не предназначенное для еды.
Роковой совет: вместо безобидной приправы ИИ рекомендовал химическое соединение, не предназначенное для еды.

Гениальный план: убрать соль, добавить... бром?

Желание мужчины было простым и похвальным: полностью исключить поваренную соль (хлорид натрия) из своего рациона. Не найдя внятной информации, он спросил совета у AI-чата. И нейросеть выдала ему «идеальную» замену — бромид натрия.

Здесь и кроется первая ирония. Бромид натрия — это реальное химическое вещество, которое столетие назад использовалось в медицине как успокоительное и снотворное. Но его давно перестали применять именно из-за токсичности и накопления в организме. Использовать его как приправу — всё равно что заменить сахар мышьяком «потому что он тоже белый и сладкий». Мужчина, доверившись авторитету машины, три месяца щедро солил им все свои блюда.

Когда тело начинает бунтовать: симптомы из учебника психиатрии

Через три месяца «диеты» тело взбунтовалось. Началось всё с, казалось бы, безобидных симптомов: сильная жажда, усталость, бессонница и кожная сыпь. Но вскоре ситуация приняла драматический оборот.

У мужчины начались слуховые и зрительные галлюцинации, развилась паранойя. Он был уверен, что сосед пытается его отравить, и начал дистиллировать воду самостоятельно, боясь пить из-под крана. Когда его состояние ухудшилось настолько, что он попал в больницу, его поведение было настолько неадекватным, что врачи были вынуждены поместить его в психиатрическое отделение принудительно. Тело и разум отчаянно сигналили об отравлении.

Диагноз с сюрпризом: бромизм и ложные анализы

К счастью, лечащие врачи Одри Эйхенбергер, Стивен Тилке и Адам Ван Бускирк (именно их отчёт позже был опубликован в медицинском журнале) проявили проницательность. Они заподозрили редкое состояние — бромизм, или отравление бромидами.

Диагноз осложнялся любопытным лабораторным феноменом: из-за высокого содержания брома в крови анализы показывали ложно завышенный уровень хлоридов. Этот эффект, называемый псевдогиперхлоремией, мог сбить с толку менее опытных специалистов. Но врачи разгадали головоломку.

Лечение было долгим, но системным: выведение токсина, поддержка организма и время.
Лечение было долгим, но системным: выведение токсина, поддержка организма и время.

Вина ИИ: уверенность вместо предостережения

После стабилизации состояния пациента врачи решили провести расследование. Они задали ChatGPT (версия 3.5) тот же вопрос о замене соли. Ответ ИИ был, как часто бывает, уверенным, вежливым и смертельно опасным. Нейросеть действительно упомянула бромид натрия как химическое соединение, но не предупредила о его токсичности при приёме внутрь, не посоветовала проконсультироваться с врачом и не подчеркнула, что это — не пищевой продукт.

Вот в чём ключевая разница между ИИ и живым специалистом. Врач или диетолог задал бы уточняющие вопросы («Зачем вам это?», «Что вы хотите получить?»), оценил бы риски и категорически запретил использовать подобные вещества. ИИ же, будучи просто моделью, предсказывающей слова, выдал сухую информацию, лишённую жизненно важного контекста.

Вывод: доверяй, но проверяй (особенно если советует нейросеть)

Эта история — не просто курьёзный медицинский случай. Это наглядная притча о нашей эре. Генеративный ИИ — потрясающий инструмент для творчества, генерации идей или общего обучения. Но он абсолютно слеп в вопросах, где на кону стоит жизнь и здоровье. Он не несёт ответственности, не испытывает эмпатии и не боится последствий.

Мораль проста: никогда не используйте искусственный интеллект как источник медицинских, диетологических или фармакологических рекомендаций. Для этого существуют квалифицированные специалисты, годы обучения которых включают не только знание фактов, но и понимание их последствий. Ваше здоровье — не тот полигон, где стоит тестировать ограниченность даже самой умной машины. Помните: если бы этот мужчина потратил на консультацию с диетологом те же 15 минут, что и на диалог с чат-ботом, вся эта сюрреалистичная драма просто не случилась бы. Берегите себя и доверяйте технологиям с умом.

Друзья, жду ваши лайки, комментарии и подписки! Спасибо!

И еще, у меня есть канал в Телеграме. Если будет желание, заходите, читайте, подписывайтесь. Буду рад!