Найти в Дзене
52 подписчика

Безопасный супер ИИ 🧠


Бывший главный научный сотрудник OpenAI Илья Суцкевер основал новую компанию Safe Superintelligence (SSI), целью которой является создание безопасного искусственного суперинтеллекта, превосходящего человеческий.

SSI уже привлекла 1 миллиард долларов инвестиций и планирует сосредоточиться на разработке инновационных подходов к масштабированию ИИ.

Основной вызов, по мнению Суцкевера, заключается в обеспечении безопасности будущего суперинтеллекта.

SSI будет вести обширные исследования, чтобы определить, как гарантировать, что этот ИИ станет силой добра и безопасности.

Безопасный супер ИИ 🧠  Бывший главный научный сотрудник OpenAI Илья Суцкевер основал новую компанию Safe Superintelligence (SSI), целью которой является создание безопасного искусственного...
Около минуты