1 подписчик
OpenAI начала отправлять предупреждения пользователям, пытающимся исследовать работу новой модели o-1 (Strawberry), угрожая блокировкой за любые попытки джейлбрейка и изучения её процесса рассуждения.
Компания уже разослала письма как исследователям ИИ, так и обычным пользователям, предупреждая о нарушении политики безопасности.
Даже использование фраз, связанных с рассуждением, вне контекста может привести к получению такого уведомления.
OpenAI стремится защитить фирменные алгоритмы модели, и любые попытки их раскрытия будут наказываться.
Около минуты
17 сентября 2024