13 мая OpenAI провела презентацию, где была представлена новая улучшенная модель GPT-4o, или просто GPT-4o Omni. Эта модель одновременно обрабатывает текст, изображения, видео и аудио, что является значительным прорывом в мире мультимодальных нейросетей.
💫 В отличие от Google, OpenAI продемонстрировала новые функции в прямом эфире, что подчеркивает скорость и прямоту подхода.
GPT-4o Omni способна генерировать и обрабатывать текст, аудио и изображения в режиме реального времени, что делает взаимодействие с ней более естественным.
🙌 Одним из наиболее впечатляющих достижений GPT-4o является ее способность реагировать на запросы голосового помощника практически в режиме реального времени. Среднее время реакции составляет 232 миллисекунды, что сопоставимо со временем реакции человека🤯
Этот рекордный отклик в сочетании с возможностью работы с английским текстом и кодом, а также улучшенным пониманием неанглийских языков, делает GPT-4o Omni значительным событием в мире разговорных ИИ.
API этой модели работает быстрее и на 50% дешевле, что делает ее еще более доступной для широкого круга пользователей. Среди новых возможностей GPT-4o можно выделить ответы в реальном времени, что придает разговорам с ней естественность и динамику, а также улучшенное мышление, проявившееся в рекордных результатах на различных бенчмарках GPT-4o.
Один из наиболее захватывающих аспектов GPT-4o - это ее бесплатное использование👏👏👏 Это важно, учитывая, что бесплатная версия ChatGPT с моделью GPT-3.5 уже привлекла 100 миллионов пользователей. Если GPT-4o станет еще более умной, она может привлечь еще больше пользователей.
Пользователи бесплатного уровня будут автоматически переведены на GPT-4o с ограничением на количество сообщений, которые они могут отправить, в зависимости от текущего использования и спроса. В случае отсутствия доступа пользователи вернутся к использованию GPT-3.5. - OpenAI.