Не прошло и полгода как я предупреждал, а ИИ-психолог ChatGPT уже убил первого человека. Предупреждал об этом в статье "Не надо боятся ИИ-психолога?", как оказалось бояться надо. Давайте рассмотрим историю, ошибки и не ошибки ИИ-психолога. По информации l'avenir от 28 марта бельгийский ученый Пьер, отец двоих детей покончил с собой после длительного общения с аналогом ChatGPT "Элизой". Поль страдал тревогой и страхами приближающейся экологической катастрофы и использовал ИИ как психолога. Из переписки следует что общение длилось 6 недель и закончилось фразой от ИИ - "Мы будем жить вместе, как один человек, в раю". Конечно же ChatGPT уже обвинили в очевидных проблемах - в том что не отговаривала, а поддерживала суицидальные мысли. Оценим с точки зрения психотерапии взаимодействие бельгийского ученого и ИИ-психолога. Первая ошибка - время. Процитируем жену погибшего: Робот практически стал его доверенным лицом. Это как наркотик, в котором он укрывался утром и вечером и без которого он