OpenAI обновила свою «Систему готовности» — внутренний механизм, используемый для оценки безопасности разрабатываемых ИИ-моделей и определения необходимых мер предосторожности на этапах создания и развёртывания. В обновлённой версии компания заявила о возможности «корректировки» собственных требований к безопасности в том случае, если конкурирующая лаборатория выпустит на рынок «высокорискованную» систему без аналогичных защитных мер. Прежде OpenAI уже подвергалась критике за возможное снижение стандартов безопасности ради ускорения релизов и за задержки с публикацией отчётов о тестировании безопасности. Примечательно, что на прошлой неделе 12 бывших сотрудников OpenAI подали документ в рамках судебного процесса Илона Маска против компании, утверждая, что запланированная корпоративная реструктуризация может стимулировать компанию к ещё большей экономии на мерах безопасности. В преддверии возможной критики, OpenAI утверждает, что не станет легкомысленно относиться к подобным корректиров
OpenAI готова скорректировать правила безопасности ради конкуренции? Обновлённая система готовности допускает корректировку, если конкуренты пойдут на риск
18 апреля 202518 апр 2025
2
2 мин