Найти тему
OVERCLOCKERS.RU

OpenAI объявила о создании новой мультимодальной модели ИИ GPT-4o

@kandinsky21_bot

Компания OpenAI представила последнюю версию модели, лежащей в основе ее ИИ-чатбота ChatGPT, под названием GPT-4o ( "o" означает "omni"). Эта новая версия, предлагаемая бесплатно всем пользователям ChatGPT, может анализировать изображения и даже распознавать мимику. Кроме того, у нее есть "память", чтобы запоминать прошлые вопросы и ответы, которые вы ей задавали.

Вчера внимание всего технологического мира было приковано к анонсам OpenAI. Многие эксперты ожидали, что компания представит альтернативу Google - поисковую систему на базе искусственного интеллекта. Этой новости так и не последовало, но представленная новая модель в любом случае представляет собой интересный шаг вперед.

GPT-4o работает быстрее предыдущих моделей, а его разговорный ритм похож на человеческий. Фактически, он умеет отвечать с минимальным временем реакции 232 миллисекунды, а среднее значение составляет 320 миллисекунд: время, аналогичное времени реакции человека в обычном разговоре.

Кроме того, новая модель ИИ умеет читать и обсуждать изображения, поэтому вы можете использовать в качестве ввода фотографии и рисунки. С его помощью можно переводить языки, а также определять эмоции по визуальным выражениям. Что касается производительности, GPT-4o соответствует GPT-4 Turbo при работе с английским текстом и компьютерным кодом. Но в то же время он предлагает значительное улучшение при работе с другими языками, кроме английского.

GPT-4o также обладает своеобразной "памятью", которая позволяет ему запоминать предыдущие предложения. Это новшество в сочетании с более быстрым временем реакции позволяет вести более реалистичный человеческий разговор с чатботом, который помнит, что вы спрашивали и что он ответил.

Во время демонстрации GPT-4o давал полезные советы по решению уравнений, анализировал компьютерный код, переводил с итальянского на английский и интерпретировал эмоции при съемке селфи.

Тем не менее, в демонстрации уже были замечены ошибки в распознавании лиц и другие мелкие неполадки. А демонстрация обычно не раскрывает технических проблем и " глюков": на данный момент мы увидели только лучшие стороны новой модели. Потребуются тесты и испытания, чтобы понять, будет ли она не только быстрее, но и более последовательной. OpenAI уверяет, что при разработке GPT-4o использовались такие методы интеграции, как фильтрация обучающих данных и доработка поведения модели. Также было проведено внешнее тестирование с экспертами из разных отраслей, чтобы выявить потенциальные риски. Но когда мы все сможем использовать его, могут возникнуть непредвиденные проблемы: как и любая технология, он должен быть протестирован.

OpenAI намерена сделать GPT-4o основой для следующего поколения цифровых помощников ИИ, способных взаимодействовать не только с помощью голоса или текста и запоминать прошлые запросы.

Помимо GPT-4o, OpenAI объявила об обновлении веб-интерфейса ChatGPT, настольного приложения для Mac, а также об открытии магазина GPT Store для всех пользователей, позволяющего им создавать и делиться своими собственными персонализированными чат-ботами.