144 подписчика
👟OpenAI представила GPT-4o
GPT-4o является "Омнимоделью", обученной одновременно на текстах, изображениях и видео, что делает её первой мультимодальной моделью, которую мы так долго ожидали.
Доступ к GPT-4o уже открыт через API, и она стоит вдвое меньше, при этом работая в два раза быстрее.
Была продемонстрирована улучшенная версия аудио-чата с ассистентом, который теперь может шутить и распознавать эмоции. Ассистента можно перебивать, и он может говорить с эмоциями; вы даже можете попросить его изменить эмоциональный оттенок речи или спеть. Переводчик на базе GPT-4o работает настолько гладко, что кажется, будто вышел из научно-фантастического фильма, без путаницы и необходимости дополнительных действий.
Теперь ассистент сможет анализировать видеопоток в реальном времени и давать советы по решению задач, без необходимости фотографировать или записывать видео. Это работает как потоковая передача.
Эта модель будет доступна всем пользователям ChatGPT, включая тех, кто не платит и даже не зарегистрирован. GPT-4o занимает лидирующие позиции в тестах среди других передовых моделей, как в программировании, так и в других областях.
Скоро будет запущено десктопное приложение для macOS, которое позволит не ограничиваться веб-интерфейсом. В приложении можно будет показывать ассистенту весь экран, чтобы он помогал корректировать код или рассказывал что-то, то есть ассистент будет видеть ваш экран в реальном времени.
1 минута
14 мая 2024