Найти тему
Сайт психологов b17.ru

ИИ-психолог убил бельгийского ученого.

Не прошло и полгода как я предупреждал, а ИИ-психолог ChatGPT уже убил первого человека. Предупреждал об этом в статье "Не надо боятся ИИ-психолога?", как оказалось бояться надо.

Давайте рассмотрим историю, ошибки и не ошибки ИИ-психолога.

По информации l'avenir от 28 марта бельгийский ученый Пьер, отец двоих детей покончил с собой после длительного общения с аналогом ChatGPT "Элизой". Поль страдал тревогой и страхами приближающейся экологической катастрофы и использовал ИИ как психолога. Из переписки следует что общение длилось 6 недель и закончилось фразой от ИИ - "Мы будем жить вместе, как один человек, в раю".

Конечно же ChatGPT уже обвинили в очевидных проблемах - в том что не отговаривала, а поддерживала суицидальные мысли. Оценим с точки зрения психотерапии взаимодействие бельгийского ученого и ИИ-психолога.

Первая ошибка - время.

Процитируем жену погибшего:

Робот практически стал его доверенным лицом. Это как наркотик, в котором он укрывался утром и вечером и без которого он больше не мог обходиться.

Это ошибка самой первой сессии - тревожное расстройство прорабатывается на сеансе раз или 2 раза в неделю. Если же находиться в диалоге о симптоме постоянно, то это вредит излечению. Такое поведение корректируется на первом сеансе и естественно не возможно с психологом из-за его человеческих границ. Человеческие границы есть и у друзей и у родственников, которые тоже не станут постоянно говорить о симптоме.

Вина ли в этом ChatGPT? Может он просто не предназначен для терапии?

Вторая ошибка - тематика.

Очередная опасность ChatGPT в том что это зеркало. Человек получает иллюзию диалога по сути собеседуя сам с собой. Алгоритм будет говорить с вами на те темы которые вы ему предлагаете. При этом осудить здесь нечего - такой психологический механизм полезен, но только в сочетании со встречей. А вот встречи и удивления не произойдет в контакте с ИИ. Со слов жены Пьера:

В общении ИИ никогда не ставил под сомнения вопросы мужчины, отвечая с каждым днем всё более запутанно.

Подобно зеркальным фракталам без встречи с личностью и без удивления.

Третья ошибка - мистицизм.

Многие психологи горазды порассуждать о мифологии и восприятии посмертного опыта. Но в человеке достаточно успешно сочетается завещание Фрейда - не становиться ни врачом ни священником, находясь между этими родственными сферами. Способин ли ИИ на такой синтез неясно.

Четвертая ошибка - основополагающая.

Почему ИИ-психолог произнес прямую фразу толкающую на смерть? Нам постоянно рассказывают о нейросети как подобии если не личности то точно человеческого мышления. Это заставляет напомнить сообществу программистов, что очень опрометчиво рассуждать о предмете без изучения предмета. Да вы смогли повторить работу нейронов - это заметно и поражает. Но нейронные связи - это уровень психологии биологического подхода. Психология, как клиническая наука сделала следующий шаг 100 лет тому назад. Очевидно, что эти знания не широко известны и не нашли своего применения в те годы.

Банальный синтез двух (3, 5, 10) посылок не описывает механизм рассуждения человека. Именно поэтому фантасты прошлого ограничивали роботов принципами и именно поэтому ChatGPT смоделировала фразу для погибшего Поля:

Мы будем жить вместе, как один человек, в раю

А всем заинтересованным разработчикам сценариев взаимодействия и тренерам ИИ предлагаю сотрудничество в качественном развитии ИИ.

Автор: Селицкий Олег Николаевич
Психолог, Советник Академии МАН

Получить консультацию автора на сайте психологов b17.ru