0,4 секунды на реакцию: стартап Thinking Machines Lab Миры Мурати показал модель для живого диалога с ИИ, которая слышит, видит и отвечает почти без паузы. Как пишет Habr / Новости, демо уже сравнили с GPT-realtime-2.0 и Gemini-3.1-flash-live, а разница в задержке получилась заметной: 0,4 секунды против 1,18 и 0,57 секунды соответственно. Для русскоязычной IT-аудитории тут важен не только очередной умный релиз, а смена самого сценария общения: вместо привычного чата модель пытаются приблизить к разговору, где можно перебить, уточнить и не ждать, пока собеседник закончит длинный монолог. Классическая схема вопросов и ответов для такого режима подходит плохо. Пока пользователь печатает или говорит, обычный чатбот ждёт; пока отвечает, он не слышит и не видит происходящее вокруг. Команда Мурати сравнивает этот подход с попыткой решать конфликт по почте: формально общение есть, но темп разговора сломан. Поэтому Thinking Machines выкинула turn-based-логику и перешла к потоковой обработке: вх