Найти тему
Не журналист

OpenAI беспокоится, что люди могут стать эмоционально зависимыми от нового голосового режима ChatGPT.

Благодаря новому голосовому режиму пользователи ChatGPT смогут вести естественные разговоры с чат-ботом в режиме реального времени.
Благодаря новому голосовому режиму пользователи ChatGPT смогут вести естественные разговоры с чат-ботом в режиме реального времени.

OpenAI впечатлили пользователей, продемонстрировав обновленный голосовой режим для самой продвинутой версии ChatGPT в начале этого года. В отличие от роботизированного голоса, который люди привыкли ассоциировать с цифровыми помощниками, такими как "Алиса" или "Siri", расширенный голосовой режим ChatGPT звучит удивительно реалистично.

Однако в настоящее время OpenAI обеспокоены тем, что люди могут начать слишком сильно полагаться на ChatGPT в плане общения. Это может привести к “зависимости” из-за его нового голосового режима, похожего на человеческий.

Это стало известно из отчета, опубликованного компанией OpenAI по результатам проверки безопасности инструмента, который начал распространяться среди платных пользователей еще в начале августа.

Расширенный голосовой режим ChatGPT поражает своей реалистичностью. Он реагирует в режиме реального времени, может адаптироваться к тому, что его прерывают и воспроизводит звуки, которые люди издают во время разговора - например, смех или “хм”. Программа также может определить эмоциональное состояние говорящего по тону его голоса.

Спустя некоторое время после того, как OpenAI анонсировали эту функцию на мероприятии в начале текущего года, её начали сравнивать с цифровым помощником с искусственным интеллектом из фильма «Она» 2013 года. В этом фильме главный герой влюбляется в ИИ, но его сердце разбивается, когда он узнаёт, что у «неё» также есть отношения с сотнями других пользователей. Похоже, вымышленная история очень близка к тому, чтобы стать реальностью.

"Пользователи могут установить социальные отношения с ИИ, что снизит их потребность в человеческом взаимодействии и потенциально принесет пользу одиноким людям, но, возможно, повлияет на здоровые отношения”, — говорится в отчете.

Прослушивание информации от бота, который говорит как человек, может заставить пользователей доверять ему больше, чем следовало бы, учитывая склонность ИИ ошибаться.

В отчете подчеркивается масштабный риск, связанный с искусственным интеллектом. Технологические компании стремятся как можно скорее распространить среди общественности инструменты ИИ, которые, по их словам, могут изменить нашу жизнь, работу, общение и способы поиска информации. Но они делают это прежде, чем кто-либо по-настоящему поймет, каковы будут последствия. Как и в случае со многими техническими достижениями, компании обычно имеют свое представление о том, как их продукты могут и должны использоваться. Однако пользователи часто находят им неожиданные применения, порой приводящие к непредвиденным результатам.

Некоторые люди уже вступают в романтические отношения с чат-ботами, оснащёнными искусственным интеллектом, что беспокоит экспертов по взаимоотношениям.

Некоторые люди заводят романтические отношения с чат-ботами, оснащёнными искусственным интеллектом. Это вызывает беспокойство у специалистов по взаимоотношениям.

«Компании несут большую ответственность за то, чтобы действовать этично и ответственно. Сейчас проводятся эксперименты в этой области, — сказала Лизель Шараби, профессор Университета штата Аризона, которая изучает технологии и человеческое общение. — Меня действительно беспокоят люди, устанавливающие глубокие связи с технологиями, которые могут исчезнуть в долгосрочной перспективе и которые постоянно меняются», — добавила она в интервью CNN.

OpenAI утверждает, что взаимодействие пользователей с голосовым режимом ChatGPT может со временем повлиять на понимание того, что считается приемлемым в социальных взаимодействиях.

«Наши модели отличаются особым уважением к пользователям. Они позволяют им в любой момент прерывать разговор и „брать микрофон“, что вполне ожидаемо для искусственного интеллекта, но было бы не очень приличным в общении с людьми», — отмечается в отчёте компании.

В данный момент OpenAI утверждает, что стремится разрабатывать искусственный интеллект безопасным образом. Компания планирует продолжить исследование того, насколько пользователи могут эмоционально зависеть от инструментов ИИ.