Организация OpenAI выразила обеспокоенность тем, что из-за нового голосового режима, похожего на человеческий, люди могут чрезмерно полагаться на ChatGPT в качестве собеседника, что может привести к "зависимости".
Эта обеспокоенность была подчеркнута в докладе, опубликованном в четверг по результатам проверки безопасности инструмента, который начал распространяться среди платных пользователей на прошлой неделе, и модели ИИ на большом языке, на которой он работает.
Продвинутый голосовой режим ChatGPT отличается высокой реалистичностью: он отвечает в реальном времени, подстраивается под прерывания и издает разговорные звуки, такие как смех или "хм". Он также может оценивать эмоциональное состояние собеседника по тону его голоса.
OpenAI теперь обеспокоена тем, что этот вымышленный сценарий может приближаться к реальности, поскольку она наблюдала, как пользователи взаимодействуют с голосовым режимом ChatGPT таким образом, что это наводит на мысль об "общих связях" с этим инструментом.
В отчете говорится, что пользователи могут вступать в социальные отношения с ИИ, что потенциально снижает их потребность в общении с человеком. Хотя это может принести пользу одиноким людям, это также может повлиять на здоровые отношения. Кроме того, человекоподобный голос может заставить пользователей доверять инструменту больше, чем следует, учитывая возможность ошибок ИИ.