OpenAI расширяет свои внутренние процессы безопасности и дает Совету директоров право вето, чтобы противостоять угрозе вредоносного ИИ. OpenAI расширяет свои внутренние процессы безопасности и дает Совету директоров право вето, чтобы противостоять угрозе вредоносного ИИ. Новая консультативная группа будет стоять над техническими командами и давать рекомендации руководству. В новом документе OpenAI рассказывает об обновленной «Рамочной программе готовности». Основная цель обновления заключается в том, чтобы показать четкий путь для выявления, анализа и принятия решений о том, что делать с «катастрофическими» рисками, присущими разрабатываемым моделям. Под катастрофическими рисками понимаются последствия от действий ИИ, которые могут привести к экономическому ущербу в сотни миллиардов долларов, серьезным повреждениям или смерти многих людей. Сегодня производственные модели управляются командой «систем безопасности». Это касается злоупотреблений ChatGPT, которые могут быть смягчены ограни