Найти в Дзене
4pda.to

ChatGPT сравнили по эффективности с настоящим психотерапевтом

Лилиан Венг, руководитель отдела систем безопасности OpenAI, призналась, что несколько раз использовала последнюю версию ChatGPT в качестве личного психолога. Голосовой режим чат-бота в ходе импровизированного сеанса терапии вызвал, по её словам, сильные переживания с последующим облегчением. «Только что состоялся довольно эмоциональный и личный разговор с ChatGPT в голосовом режиме. Мы говорили о стрессе, балансе между работой и личной жизнью. Интересно, что я почувствовала тепло, почувствовала себя услышанной. Никогда раньше не пробовала терапию, но, возможно, так оно и работает?» — поделилась впечатлениями Лилиан. Реакция критиков на своеобразную рекламу ChatGPT от Лилиан была довольно быстрой и яростной. Они напрочь отказались допускать концепцию «ИИ-психотерапевт», так как машина не наделена эмпатией. «По сути, это иллюзия, что машина, с которой вы разговариваете, обладает более широким, человеческим пониманием мира. У нас такое ощущение, что за системой стоит огромный разум и цел
   ChatGPT сравнили по эффективности с настоящим психотерапевтом
ChatGPT сравнили по эффективности с настоящим психотерапевтом

Лилиан Венг, руководитель отдела систем безопасности OpenAI, призналась, что несколько раз использовала последнюю версию ChatGPT в качестве личного психолога. Голосовой режим чат-бота в ходе импровизированного сеанса терапии вызвал, по её словам, сильные переживания с последующим облегчением.

-2

«Только что состоялся довольно эмоциональный и личный разговор с ChatGPT в голосовом режиме. Мы говорили о стрессе, балансе между работой и личной жизнью. Интересно, что я почувствовала тепло, почувствовала себя услышанной. Никогда раньше не пробовала терапию, но, возможно, так оно и работает?» — поделилась впечатлениями Лилиан.

Реакция критиков на своеобразную рекламу ChatGPT от Лилиан была довольно быстрой и яростной. Они напрочь отказались допускать концепцию «ИИ-психотерапевт», так как машина не наделена эмпатией.

«По сути, это иллюзия, что машина, с которой вы разговариваете, обладает более широким, человеческим пониманием мира. У нас такое ощущение, что за системой стоит огромный разум и целеустремлённость, которой на самом деле может не быть», — сказала Маргарет Митчелл, главный специалист по этике компании Hugging Face AI.

К слову, это не первый случай, когда ИИ принимают за психотерапевта. Такое уже случалось в 1966 году с диалоговой программой ELIZA: она просила испытуемых рассказать о себе и задавала наводящие вопросы. Простота программы подкупала тех, кто с ней общался, и люди охотно рассказывали монитору свои истории.