90 подписчиков
OpenAI угрожает забанить пользователей, которые пытаются разобраться в логике работы их последней модели AI под кодовым именем «Strawberry» или o1-preview 🤖. Эта модель способна выполнять «цепочку рассуждений», что позволяет ей шаг за шагом объяснять свой мыслительный процесс ✍️. Однако, теперь OpenAI блокирует и потенциально банит пользователей, которые задают вопросы, связанные с этим механизмом, ссылаясь на опасения, что ответы AI могут быть неправильно истолкованы или нарушать правила безопасности 🚫.
Пользователи сообщают, что получают электронные письма от OpenAI, в которых говорится, что их запросы к ChatGPT были отмечены за попытку обойти защитные меры 📧. В письмах предупреждается, что дальнейшие нарушения этой политики могут привести к потере доступа к GPT-4o с рассуждениями 🚨. Этот шаг рассматривается как отход от первоначальной миссии OpenAI по содействию открытой и прозрачной разработке ИИ 🌍.
Компания утверждает, что скрытие процесса рассуждения необходимо для предотвращения случаев, когда AI может случайно раскрыть некомплаентные мысли 🛡️. Эта мера также помогает сохранить конкурентное преимущество, не позволяя конкурентам легко копировать модель 📈. Однако такой подход подвергся критике со стороны исследователей ИИ, которые считают, что интерпретируемость и прозрачность важны для безопасной разработки и улучшения моделей AI 🔍.
В результате, изменение политики OpenAI встретило скепсис 😒. Многие пользователи выражают недовольство и рассматривают альтернативные модели AI, такие как Claude 🚀. Этот вопрос подчеркивает напряжение между поддержанием конкурентного преимущества и продвижением прозрачности в разработке ИИ ⚖️.
#neuroco #нейроконтент #машинноеобучение #языковыемодели #нейросеть #нейронка #ArtificialIntelligence
1 минута
26 сентября 2024