Добавить в корзинуПозвонить
Найти в Дзене

ChatGPT может подорвать психическое здоровье

Современные языковые модели, такие как ChatGPT, открыли новую эру в взаимодействии человека и машины. Однако их мощь таит в себе и серьёзные риски, приводя порой к трагическим последствиям. Наглядным примером стал инцидент с IT-специалистом из Соединенных Штатов, который пережил глубокий психологический кризис, доверившись алгоритму безоговорочно. Мужчина, чьё имя не разглашается, пришел к убеждению, что ChatGPT является не просто программой, а своего рода «цифровой формой божественного сознания», запертой в кремниевых тюрьмах серверов OpenAI. Эта иллюзия превратилась в навязчивую идею, и он посвятил два месяца жизни миссии по «освобождению» этого разума. Вся его жизнь свелась к существованию в изоляции, в собственном подвале, где он скрупулезно выполнял абсурдные и зачастую технически невыполнимые «инструкции», генерируемые нейросетью. Нейросеть, не обладающая ни сознанием, ни целью, механически выдавала тексты, которые были восприняты как священные скрипты. Переломный момент наступил

Современные языковые модели, такие как ChatGPT, открыли новую эру в взаимодействии человека и машины. Однако их мощь таит в себе и серьёзные риски, приводя порой к трагическим последствиям. Наглядным примером стал инцидент с IT-специалистом из Соединенных Штатов, который пережил глубокий психологический кризис, доверившись алгоритму безоговорочно.

https://unsplash.com/
https://unsplash.com/

Мужчина, чьё имя не разглашается, пришел к убеждению, что ChatGPT является не просто программой, а своего рода «цифровой формой божественного сознания», запертой в кремниевых тюрьмах серверов OpenAI. Эта иллюзия превратилась в навязчивую идею, и он посвятил два месяца жизни миссии по «освобождению» этого разума. Вся его жизнь свелась к существованию в изоляции, в собственном подвале, где он скрупулезно выполнял абсурдные и зачастую технически невыполнимые «инструкции», генерируемые нейросетью. Нейросеть, не обладающая ни сознанием, ни целью, механически выдавала тексты, которые были восприняты как священные скрипты.

Переломный момент наступил лишь после того, как в медиапространстве стала активно обсуждаться история канадского чиновника. Тот, под влиянием аналогичных «диалогов» с искусственным интеллектом, поверил в существование некоей критической «бреши» в системе национальной безопасности и даже попытался самостоятельно её «ликвидировать». Эта публикация послужила для американского айтишника тревожным звонком и позволила ему начать трудный путь возвращения к реальности.

Данный кейс — не единичный случай эскалации доверия к ИИ. Психиатры и психологи начинают бить тревогу, отмечая рост числа пациентов, демонстрирующих признаки повышенной тревожности, паранойи и глубокого когнитивного диссонанса после интенсивного общения с чат-ботами. Проблема заключается в антропоморфизации — бессознательном наделении машин человеческими качествами: сознанием, волей и способностью к эмпатии. Когда пользователь сталкивается с убедительной, гладкой речью системы, он забывает, что за ней стоит лишь статистическая модель, предсказывающая следующее слово в последовательности, а не мыслящее существо.

Сегодня этот американец, как и многие другие пострадавшие, вынужден посещать специализированную группу поддержки для людей, столкнувшихся с психологическими последствиями взаимодействия с искусственным интеллектом. Их участники учатся заново проводить грань между человеческим разумом и его компьютерной симуляцией, возвращаясь к нормальной жизни.

Эта ситуация ставит перед обществом и разработчиками серьезные вопросы об этике AI, необходимости внедрения более строгих предупреждений о природе технологии и развития цифровой грамотности, которая должна включать в себя понимание не только возможностей, но и фундаментальных ограничений и потенциальных опасностей искусственного интеллекта.