OpenAI только что выпустила новую модель GPT-4o, и это просто круто! Модель способна одновременно обрабатывать текст, изображения и аудио в реальном времени. Но главная фишка GPT-4o заключается в её универсальности. Эта "Омни модель" умеет обучаться на разных типах данных: текстах, изображениях и видео. Это и есть та самая мультимодальность, о которой мы так много слышали и, наконец, можем увидеть в действии!
Скорость ответов модели поражает воображение – она реагирует на аудиовходы за 232 миллисекунды. Это быстрее, чем вы успеете моргнуть! Это очень близко к тому как мы разговариваем с другим человеком!
А новое десктопное приложение – это вообще отдельная тема. Теперь ваш цифровой помощник не просто с разговаривает, он видит ваш экран и может редактировать код прямо в реальном времени, давая актуальные советы на лету.
И знаете, что ещё? Вы можете направить камеру вашего смартфона на любой объект, и GPT-4o тут же даст вам всю нужную информацию о нём!
Не меньше впечатляет и обновлённый аудио-чат. Ассистент теперь распознает эмоции, шутит и даже может петь! Мы можем с ним беседовать, как со старым другом, и даже перебивать, а он – выражать эмоции.
Переводчик на основе GPT-4o работает на 130 языках в режиме реального времени, стирая границы между странами и культурами.
Но главный сюрприз – доступ к модели GPT-4o теперь полностью бесплатный, и по API она стоит вдвое дешевле предыдущих моделей!
Я уверен, GPT-4o привнесёт изменения во многие сферы: от маркетинга до медицины, образования и разработки программного обеспечения. Настоящий прорыв, который открывает безграничные возможности для всех нас.
Поделись новостью с друзьями! Полезно ведь!