Найти тему
OVERCLOCKERS.RU

OpenAI расширяет доступ к GPT-4 Turbo и обещает более точные ответы

Компания OpenAI открывает общий доступ к своей передовой модели ChatGPT-4 Turbo, позволяя любому пользователю с платной подпиской ChatGPT использовать новейшую разработку компании, поддерживаемой Microsoft. Доступ получат обладатели пакетов GPT Plus, Team и Enterprise, а также сохранится расширенная поддержка API-доступа для разработчиков.

«При работе с ChatGPT ответы будут более точными, менее многословными и использоваться более разговорный стиль», - говорится в сообщении OpenAI, опубликованном в четверг на сайте X.

Ранее GPT-4 Turbo был доступен только разработчикам или пользователям с подпиской Copilot for Microsoft 365, которые ориентированы на предприятия с ежемесячной платой в 30 долларов с человека.

По данным веб-сайта компании, OpenAI выпустила пять версий GPT-4 Turbo. Четыре последние версии GPT были обучены на данных по декабрь 2023 года включительно, в то время как первая версия GPT-4 Turbo и ряд других моделей GPT-4 были обучены только на данных по апрель 2023 года.

-2

В последнее время OpenAI не раскрывает, на каких данных обучаются ее новые ИИ-модели. Генеральный директор YouTube заявил, что новая модель Sora компании OpenAI использовала видеоролики YouTube для обучения и это является «грубым нарушением». Через день в отчете The New York Times подтвердилось, что OpenAI использовала миллионы часов видео YouTube для обучения своих моделей (хотя Google, как сообщается, делал то же самое).

На этой неделе OpenAI снова обвинили в недостаточной открытости. В четверг издание The Information сообщило, что OpenAI уволила двух сотрудников своей группы безопасности из-за предполагаемых утечек. Однако неизвестно, какая именно информация могла быть раскрыта, и неясно, что OpenAI вообще считает в данном случае "утечкой".

В феврале ресурс MSPowerUser сообщил, что компания OpenAI ищет "Insider Risk Investigator" (Специалиста по внутренним рискам) с опытом в области кибербезопасности, чтобы "укрепить безопасность организации против внутренних угроз" и "способствовать формированию культуры безопасности". Это может говорить о том, что OpenAI пыталась предотвратить любые будущие утечки технологий. Объявление о вакансии с тех пор было удалено.