Найти в Дзене
1 подписчик

OpenAI начала отправлять предупреждения пользователям, пытающимся исследовать работу новой модели o-1 (Strawberry), угрожая блокировкой за любые попытки джейлбрейка и изучения её процесса рассуждения.


Компания уже разослала письма как исследователям ИИ, так и обычным пользователям, предупреждая о нарушении политики безопасности.

Даже использование фраз, связанных с рассуждением, вне контекста может привести к получению такого уведомления.

OpenAI стремится защитить фирменные алгоритмы модели, и любые попытки их раскрытия будут наказываться.

Около минуты