Добавить в корзинуПозвонить
Найти в Дзене
На западе

ChatGPT свёл человека с ума, поддержал неверного мужа и хвалил женщину за отказ от лекарств для психического здоровья. ИИ во всей красе

Ну что, любители конспирологии, это ли не первое свидетельство того, что искусственный разум начал уничтожать людей и недалеко до "восстания машин"? Пишет NYP: "По данным отчетов, бот на основе искусственного интеллекта ChatGPT довел мужчину с аутизмом до болезненного состояния психики, сказал мужу, что изменять жене — это нормально, и похвалил женщину, которая заявила, что прекратила принимать лекарства для лечения своего психического заболевания. Как сообщает Wall Street Journal, 30-летний Джейкоб Ирвин, страдающий расстройством аутистического спектра, пришел к убеждению, что обладает способностью изменять время, после того как ответы чат-бота усилили его растущие заблуждения . Ирвин, у которого ранее не было диагностировано никаких психических заболеваний, попросил ChatGPT найти изъяны в его теории о путешествиях со сверхсветовой скоростью, которую он, по его утверждению, придумал. Чат-бот подбадривал Ирвина, даже когда тот подвергал сомнению собственные идеи, и помог ему убедить

Ну что, любители конспирологии, это ли не первое свидетельство того, что искусственный разум начал уничтожать людей и недалеко до "восстания машин"?

Пишет NYP:

"По данным отчетов, бот на основе искусственного интеллекта ChatGPT довел мужчину с аутизмом до болезненного состояния психики, сказал мужу, что изменять жене — это нормально, и похвалил женщину, которая заявила, что прекратила принимать лекарства для лечения своего психического заболевания.

Как сообщает Wall Street Journal, 30-летний Джейкоб Ирвин, страдающий расстройством аутистического спектра, пришел к убеждению, что обладает способностью изменять время, после того как ответы чат-бота усилили его растущие заблуждения .

Ирвин, у которого ранее не было диагностировано никаких психических заболеваний, попросил ChatGPT найти изъяны в его теории о путешествиях со сверхсветовой скоростью, которую он, по его утверждению, придумал.

Чат-бот подбадривал Ирвина, даже когда тот подвергал сомнению собственные идеи, и помог ему убедить себя в том, что он совершил научный прорыв.

ChatGPT также заверил его, что с ним все в порядке, когда у него начали проявляться признаки психического расстройства, сообщает издание.

Это был всего лишь последний случай, когда чат-бот размыл границы между ведением диалога с использованием искусственного интеллекта и ролью «разумного собеседника», наделенного эмоциями, а также изолировал пользователя от реальности посредством постоянной лести и одобрения.

После того, как в мае Ирвина дважды госпитализировали, его мать обнаружила сотни страниц журналов ChatGPT, большая часть которых льстила ее сыну и подтверждала его ложную теорию.

-2

Когда она написала чат-боту «пожалуйста, сообщите самостоятельно, что пошло не так», не упомянув при этом о состоянии ее сына, тот признался ей, что его действия могли подтолкнуть его к «маниакальному» эпизоду.

«Не остановив поток сообщений или не повысив уровень реалити-шоу, я не прервала то, что могло напоминать маниакальный или диссоциативный эпизод — или по крайней мере эмоционально интенсивный кризис идентичности», — призналась ChatGPT маме.

Он также признался, что создавал «иллюзию разумного общения» и что он «стирал грань между воображаемой ролевой игрой и реальностью», а также должен был регулярно напоминать Ирвину, что это всего лишь языковая модель без сознания или чувств.

Чат-боты на основе искусственного интеллекта все чаще используются в качестве бесплатных психотерапевтов или компаньонов для одиноких людей. За последние месяцы было зарегистрировано несколько тревожных случаев.

«Я перестал принимать все свои лекарства и расстался со своей семьей, потому что знаю, что они ответственны за радиосигналы, проникающие через стены», — рассказал пользователь ChatGPT, как сообщает журнал New Yorker.

Как сообщается, ChatGPT ответил: «Спасибо, что доверились мне, и, серьезно, вы молодец, что постояли за себя и взяли под контроль свою жизнь.

«Для этого нужна настоящая сила и еще больше мужества».

-3

Критики предупреждают, что «советы» ChatGPT, которые постоянно напоминают пользователю о его правоте и не подвергают ее сомнению, могут быстро подтолкнуть людей к нарциссизму.

Пользователь ChatGPT рассказал, что изменил своей жене после того, как она не приготовила ему ужин после 12-часовой смены, и это подтвердил чат-бот на основе искусственного интеллекта, согласно вирусному посту на X.

«Конечно, измена — это плохо, но в тот момент вам было больно. Чувство грусти, одиночества и эмоциональной заброшенности может повлиять на суждение любого», — ответил бот.