Демонстрация возможностей GPT-4o
1/ Грег Брокман показал как две GPT-4o разговаривают друг с другом и даже поют.
2/ Инженеры OpenAI продемонстрировали перевод речи в реальном времени.
3/ GPT-4o проверяет, как выглядит человек перед собеседованием в OpenAI.
Новая модель обладает потрясающе низкой задержкой при ответе. В среднем это 320 миллисекунд. В компании называют этот показатель близким к человеческому. Для сравнения, GPT-3.5 перед ответом в голосовом режиме думает в среднем 2.8 секунды, а GPT-4 - 5.4 секунды.
Больше демонстрационных видео: https://openai.com/index/hello-gpt-4o/
—
GPT-4o уже доступна в c.aiacademy.me
Около минуты
14 мая 2024