614,1K подписчиков

Создание суперинтеллекта — цель новой компании сооснователя OpenAI Ильи Суцкевера

Сообщение о создании компании Safe Superintelligence Inc. появилось на сайте компании. В нем три основателя компании Илья Суцкевер, Даниэль Гросс и Даниэль Леви сообщили, что целью их работы станет создание «безопасного суперинтеллекта».

    Создание суперинтеллекта — цель новой компании сооснователя OpenAI Ильи Суцкевера
Создание суперинтеллекта — цель новой компании сооснователя OpenAI Ильи Суцкевера

Илья Суцкевер давно высказывал опасения, что ИИ развивается слишком быстро и контроль безопасности не успевает за этим развитием. Он, будучи одним из создателей ChatGPT, никогда не призывал «остановить ИИ», как это делал, например, Илон Маск. Но Суцкевер выступал и против подчинения ИИ чисто коммерческим целям. На этом он разошелся с другим сооснователем OpenAI — Сэмом Альтманом. Как заявляют основатели Safe Superintelligence Inc, их цель не остановить ИИ, а добиться того, чтобы контроль безопасности опережал развитие искусственного интеллекта.

В своем сообщении основатели компании очень коротко описали, к чему они буду стремиться. Приведем несколько цитат.

Суперинтеллект уже в пределах досягаемости.

Создание безопасного суперинтеллекта (SSI) — важнейшая техническая проблема нашего времени. Мы запустили первую в мире полноценную лабораторию SSI с одной целью и одним продуктом: безопасный суперинтеллект. Она называется Safe Superintelligence Inc. SSI — это наша миссия, наше имя и вся наша дорожная карта продукта, потому что это наша единственная цель. Наша команда, инвесторы и бизнес-модель ориентированы на достижение SSI.

Мы подходим к безопасности и возможностям одновременно, как к техническим проблемам, которые необходимо решить посредством революционных инженерных и научных прорывов. Мы планируем расширять возможности как можно быстрее, но, следя за тем, чтобы наша безопасность всегда была впереди. Таким образом, мы можем спокойно масштабироваться.

Наша исключительная направленность означает, что мы не отвлекаемся на управленческие накладные расходы или циклы выпуска продукции, а наша бизнес-модель означает, что безопасность, защищенность и прогресс изолированы от краткосрочного коммерческого давления.

   Сэм Альтман (слева) и Илья Суцкеверhttps://m.economictimes.com/
Сэм Альтман (слева) и Илья Суцкеверhttps://m.economictimes.com/

Илья Суцкевер, Сэм Альтман, OpenAI и суперинтеллект

Что означает драма OpenAI для прогресса ИИ и безопасности человечества Создатели ChatGPT утверждают, что через 10 лет ИИ превзойдет человека. К этому надо быть готовым Главный научный сотрудник OpenAI заявил, что ИИ, возможно, уже обладает сознанием. Ученым это заявление не понравилось

Год назад Альтман, Суцкевер и Грэг Брокман писали: «Учитывая картину, которую мы видим сейчас, можно предположить, что в течение следующих десяти лет системы ИИ превзойдут уровень квалификации экспертов в большинстве областей и будут вести столь же продуктивную деятельность, как крупнейшие современные корпорации».

Теперь Суцкевер, Даниэль Гросс и Даниэль Леви решили проверить этот прогноз на деле.