OpenAI разрабатывает новую аудиомодель с двунаправленной связью (BiDi), которая должна сделать диалог с искусственным интеллектом по-настоящему естественным. В чём отличие от текущих решений Сегодняшние голосовые ассистенты работают по схеме «вопрос — пауза — ответ». ИИ ждёт, пока пользователь закончит фразу, и только потом начинает обработку. BiDi-модель устроена иначе: она анализирует речь непрерывно и может адаптироваться к диалогу в реальном времени. Если собеседник перебивает или меняет тему, система скорректирует ответ на лету — как в живом разговоре. В OpenAI признают: текущие аудиомодели уступают текстовым по точности и скорости. Во время тестирования прототипы начинали сбоить уже через несколько минут диалога. По этой причине релиз перенесли с первого на второй квартал 2026 года, возможно ещё позже. Это уже не первая задержка: ранее откладывали запуск Advanced Voice Mode для GPT-4o из-за ошибок в инфраструктуре и системах безопасности. В ранних тестах фиксировали имитаци