Добавить в корзинуПозвонить
Найти в Дзене

OpenAI починила самую раздражающую проблему голосового ChatGPT

Представьте: вы общаетесь голосом с ChatGPT, AI что-то рассказывает, а вы в этот момент отвлеклись и пропустили важную деталь. Раньше приходилось выходить из голосового режима, возвращаться в текстовый чат и читать расшифровку. Звучит неудобно? Теперь OpenAI починила самую раздражающую проблему голосового ChatGPT — голосовой режим работает прямо в чате, и вы одновременно видите всё, что говорит бот.​ 25 ноября 2025 года компания представила обновление, которое интегрирует голосовой режим в основной интерфейс переписки. Больше никаких отдельных экранов со сферой — всё происходит там же, где вы печатаете сообщения. И честно, это должно было случиться с первого дня 😅​ Раньше при нажатии на значок голосового режима (иконка с волной) ChatGPT открывал полноэкранный интерфейс с анимированной синей сферой. Вы разговаривали с AI, но не видели текстовую расшифровку в реальном времени. Если что-то не расслышали — приходилось закрывать голосовой режим и искать ответ в истории переписки.​ Теперь в
Оглавление

Представьте: вы общаетесь голосом с ChatGPT, AI что-то рассказывает, а вы в этот момент отвлеклись и пропустили важную деталь. Раньше приходилось выходить из голосового режима, возвращаться в текстовый чат и читать расшифровку. Звучит неудобно? Теперь OpenAI починила самую раздражающую проблему голосового ChatGPT — голосовой режим работает прямо в чате, и вы одновременно видите всё, что говорит бот.​

25 ноября 2025 года компания представила обновление, которое интегрирует голосовой режим в основной интерфейс переписки. Больше никаких отдельных экранов со сферой — всё происходит там же, где вы печатаете сообщения. И честно, это должно было случиться с первого дня 😅

Что изменилось в голосовом режиме

Раньше при нажатии на значок голосового режима (иконка с волной) ChatGPT открывал полноэкранный интерфейс с анимированной синей сферой. Вы разговаривали с AI, но не видели текстовую расшифровку в реальном времени. Если что-то не расслышали — приходилось закрывать голосовой режим и искать ответ в истории переписки.​

Теперь всё иначе:

  • Голосовой режим активируется прямо в окне чата
  • Вы видите расшифровку своих слов и ответов ChatGPT в реальном времени
  • Можно свободно листать историю сообщений во время разговора
  • Визуальный контент (карты, изображения, графики) отображается прямо в чате без прерывания диалога​

Обновление доступно и в мобильном приложении, и в веб-версии. Достаточно обновить приложение до последней версии.​

Визуальные подсказки и мультимодальность

OpenAI не просто объединила голос с текстом — компания добавила возможность видеть визуальные элементы прямо во время разговора. ChatGPT может показывать:​

  • Карты и маршруты к местам
  • Прогнозы погоды с виджетами
  • Результаты поиска товаров
  • Изображения и диаграммы

Правда, судя по отзывам пользователей, функция отображения карт работает не всегда стабильно. Иногда вместо интерактивной карты ChatGPT выдаёт ссылки на маршруты. Но это скорее вопрос донастройки, чем системная проблема.​

Как это работает на практике

Вы спрашиваете: "Покажи лучшие рестораны рядом со мной". ChatGPT отвечает голосом, а в окне чата параллельно появляется список заведений с описаниями, рейтингами и картами. Не нужно переключаться между экранами — всё перед глазами. Удобно? Ещё бы! 😉​

-2

Можно ли вернуть старый интерфейс

Некоторым пользователям больше нравился прежний формат — полноэкранный режим с анимированной сферой и минималистичным дизайном. OpenAI предусмотрела такую возможность.​

Для возврата к старому интерфейсу в мобильном приложении:

  1. Откройте настройки ChatGPT
  2. Выберите раздел "Голосовой" (Voice)
  3. Включите переключатель "Раздельный режим" (Separate Mode)

В веб-версии:

  1. Зайдите в настройки
  2. Откройте раздел "Персонализация"
  3. Перейдите в "Дополнительно"
  4. Активируйте опцию "Раздельный режим"

После этого голосовой режим снова откроется в отдельном окне, как раньше.​

Зачем OpenAI это сделала

Есть несколько причин, почему компания решила интегрировать голос прямо в чат. Первая — удобство пользователей. Когда голосовой режим появился впервые, многие активно им пользовались. Но со временем интерес угас, потому что переключение между интерфейсами раздражало.​

-3

Вторая причина — данные. Чем удобнее голосовой режим, тем больше людей будут его использовать. А значит, OpenAI получит больше голосовых данных для обучения своих моделей. Прагматично, но честно 🤷​

Впрочем, если вас беспокоит приватность, можно запретить OpenAI использовать ваши аудиозаписи для обучения AI:

  1. Откройте приложение ChatGPT на смартфоне
  2. Нажмите значок настроек в левом верхнем углу
  3. Выберите своё имя, чтобы открыть настройки профиля
  4. Зайдите в "Элементы управления данными" (Data Controls)
  5. Отключите опцию "Включить ваши аудиозаписи" (Enable your audio recordings)

Готово — теперь ваши разговоры с ChatGPT остаются конфиденциальными.​

Проблемы, которые остались

Несмотря на улучшения, голосовой режим всё ещё не идеален. Главная проблема — отсутствие автоматического отключения. ChatGPT продолжает слушать, пока вы вручную не нажмёте кнопку "Завершить".​

Был случай: пользователь активировал голосовой режим, задал вопрос, получил ответ... и забыл выключить микрофон. Минут через пять он попросил маму приготовить чай, а ChatGPT решил, что это запрос к нему, и начал зачитывать рецепт 😅.​

Функция автоотключения после периода бездействия была бы не просто полезной — она необходима. Особенно для тех, кто использует голосовой режим на ходу или в режиме многозадачности.

Сравнение с Gemini Live

У конкурента ChatGPT — Google Gemini — уже есть похожая функция под названием Gemini Live. Она тоже переключает на отдельный экран, но предлагает кнопку транскрипции в правом верхнем углу. Нажимаете — и видите расшифровку разговора в реальном времени.​

До недавнего обновления многие пользователи предпочитали Gemini Live именно из-за возможности видеть текст и слышать голос одновременно. Теперь ChatGPT догнал конкурента по удобству, но пока без автоотключения проигрывает в деталях.​

Технические детали обновления

Новый голосовой режим работает на основе продвинутой архитектуры реального времени. Вот как это происходит:​

  • Микрофон захватывает аудио и сжимает его в пакеты с низкой задержкой
  • Данные отправляются на серверы OpenAI, где происходит распознавание речи и анализ намерений
  • GPT-4o обрабатывает текст, аудио и визуальные данные одновременно
  • Ответ генерируется и передаётся обратно в виде аудио почти мгновенно

Средняя скорость ответа — около 300 миллисекунд. Это один из самых быстрых показателей среди AI-ассистентов.​

Расширенный голосовой режим (Advanced Voice Mode) впервые запустили для платных подписчиков в июле 2024 года. Затем, в августе 2025-го, его сделали доступным для пользователей бесплатного тарифа. Режим поддерживает естественные интонации, может менять тон и адаптироваться под эмоциональный контекст разговора.​

Почему это важно

OpenAI сделала ChatGPT более человечным и естественным. Теперь не нужно выбирать между голосом и текстом — можно использовать оба формата одновременно. Хотите что-то уточнить голосом? Пожалуйста. Нужно посмотреть историю переписки? Она перед глазами. Требуется визуальное подтверждение? Карты и графики появляются прямо в чате.​

Это не просто косметическое обновление — это фундаментальное изменение взаимодействия с AI. OpenAI сделала то, что должна была сделать с первого дня: объединила голос, текст и визуальный контент в единый интерфейс.​

А вам приходилось пользоваться голосовым режимом ChatGPT? Как вам новое обновление — удобнее или всё ещё есть куда расти? 🤔

Каждый день я публикую свежие материалы, разборы и новости в Telegram. Если не хотите пропускать интересное — подписывайтесь и читайте в удобное время!