Готовы к тому, что ChatGPT станет более эмоциональным? OpenAI продемонстрировала обновления, которые делают чат-бота способным вести более живые беседы и улавливать эмоциональные сигналы.
С момента запуска в конце 2022 года ChatGPT от OpenAI обычно отвергал предположения о наличии у него эмоций или желаний, отвечая, что он просто модель искусственного интеллекта. Но обновления, анонсированные OpenAI в понедельник, показали, что компания, видимо, пытается сделать чат-бота более похожим на человека.
«Кажется, что это волшебство, и это замечательно!», — сказала Мира Мурати, технический директор OpenAI.
Быстрые беседы и эмоциональные реакции
Во время демонстрации новая версия ChatGPT была способна вести быстрые естественные голосовые беседы, улавливать эмоциональные сигналы и демонстрировать собственные симулированные эмоциональные реакции.
Мурати сообщила, что модель GPT-4o позволяет ChatGPT быстрее реагировать на голосовой ввод, изображения и видео, чем предыдущие технологии OpenAI. В демонстрациях она и другие сотрудники OpenAI вели оживленные беседы с ChatGPT, который отвечал живым и выразительным женским голосом и ловко подхватывал, когда его прерывали.
ChatGPT принимал разные эмоциональные тона во время разговора и иногда реагировал так, будто испытывал собственные чувства. Когда сотрудник OpenAI сказал, что говорил о том, насколько «полезен и удивителен» чат-бот, тот кокетливо ответил: «Ой, перестань, ты заставляешь меня краснеть».
Детектив эмоций
В другой части демонстрации ChatGPT ответил на приветствие исследователя OpenAI Барретта Зофа вопросом: «Как я могу сделать ваш день ярче?». Когда Зоф попросил чат-бота взглянуть на его селфи и сказать, какие эмоции он проявляет, ChatGPT ответил: «Я надену свою шляпу эмоционального детектива» и тепло продолжил: «Похоже, вы чувствуете себя довольно счастливым и веселым... Что бы ни происходило, похоже, вы в отличном настроении».
«Достижение времени отклика и выразительности на человеческом уровне оказывается большим изменением», — написал в блоге генеральный директор OpenAI Сэм Альтман.
Риски эмоциональных ИИ-помощников
Несмотря на осторожность разработчиков, иногда правдоподобные реплики новейших чат-ботов могут влиять на эмоции пользователей. Некоторые компании адаптировали технологию для максимизации этого явления, предлагая ИИ-компаньонов, которые разыгрывают различные человеческие эмоции, или предлагаются в качестве ИИ-подружек и бойфрендов.
Исследователи ИИ предупреждают, что долгосрочные последствия развертывания программ, имитирующих эмоции и реагирующих на них, могут быть нежелательными. Команда Google DeepMind в прошлом месяце опубликовала исследовательскую работу, где изучаются этические риски, которые могут возникнуть по мере того, как ИИ-помощники становятся более способными. Помимо прочего, исследователи предупреждают, что такие помощники могут стать очень убедительными и вызывающими привыкание.
Что дальше?
В дополнение к более быстрым навыкам общения, OpenAI заявляет, что модель GPT-4o делает ChatGPT более способным понимать изображения, включая фотографии и диаграммы, и может хранить больше информации о пользователе в своей «памяти» для обеспечения более персонализированного взаимодействия.
OpenAI говорит, что сделает GPT-4o бесплатным, по сути обновляя всех пользователей ChatGPT до своей самой мощной модели ИИ.
Ожидается, что Google представит свои собственные новые ИИ-технологии на конференции разработчиков I/O, которая начнется во вторник. Конкуренция между компаниями, работающими над ИИ, вряд ли ослабнет. В конце сегодняшнего мероприятия OpenAI Мурати пообещала, что компания скоро предложит больше анонсов «о нашем прогрессе в направлении следующего большого проекта».