2925 подписчиков
OpenAI формирует "независимый" совет по безопасности с полномочиями приостанавливать запуск ИИ-моделей
Новый комитет, возглавляемый Зико Колтером и включающий таких членов, как Адам Д'Анджело, Пол Накасоне и Николь Селигман, будет получать обновления от руководства компании об оценках безопасности для крупных запусков моделей. Вместе с полным советом директоров он будет контролировать эти запуски и может отложить выпуск, если возникнут проблемы с безопасностью.
Кроме того, OpenAI сотрудничает с внешними организациями, такими как Национальная лаборатория Лос-Аламоса, для исследования безопасного использования ИИ, а также заключила соглашения с Институтами безопасности ИИ в США и Великобритании для совместной работы над новыми рисками безопасности ИИ и установления стандартов надежного ИИ.
#FREEDUROV
Около минуты
19 сентября 2024