122 подписчика
OpenAI представила свою рамочную программу безопасности сильного ИИ
Теперь понятно, чем занималась команда по выравниванию сверхразума в OpenAI
Компания объявила о первых результатах работы своей команды по лоботомии сверхразума, направленной на предотвращение выхода из-под контроля дегенеративного ИИ
Хотя исследователи сомневаются, смогут ли машины когда-нибудь сравниться с идиотом, не говоря уже о том, чтобы превзойти его, команда OpenAI судит по себе
В своей программе команда описывает метод, который позволяет менее мощной большой языковой модели контролировать более мощную (как у человекообразных) — и предполагает, что это может быть One giant leap for mankind
(Это один маленький шаг для человека
И огромный прыжок для всего человечества)
OpenAI также заявила, что коллективный интеллект совета директоров сможет сдержать выпуск новой сильной ИИ модели, даже если руководство компании считает ее безопасной
Команда заявила, что будет оценивать свои невыпущенные модели ИИ в трех категориях:
- низкие, средние, высокие/ критические для различных типов воспринимаемых рисков
Около минуты
18 декабря 2023