52 подписчика
Безопасный супер ИИ 🧠
Бывший главный научный сотрудник OpenAI Илья Суцкевер основал новую компанию Safe Superintelligence (SSI), целью которой является создание безопасного искусственного суперинтеллекта, превосходящего человеческий.
SSI уже привлекла 1 миллиард долларов инвестиций и планирует сосредоточиться на разработке инновационных подходов к масштабированию ИИ.
Основной вызов, по мнению Суцкевера, заключается в обеспечении безопасности будущего суперинтеллекта.
SSI будет вести обширные исследования, чтобы определить, как гарантировать, что этот ИИ станет силой добра и безопасности.
Около минуты
9 сентября 2024