Добавить в корзинуПозвонить
Найти в Дзене
World News

❌ Ученые, бизнесмены и политики требуют запретить разработку сильного ИИ

❌ Ученые, бизнесмены и политики требуют запретить разработку сильного ИИ Открытое письмо НКО «Института "Будущее жизни"» призывает к мораторию на создание сверхинтеллекта (AGI) — ИИ, который превзойдет человека в любых задачах. ✍️ Инициативу подписали более 37 тыс. человек, в том числе сооснователь Apple Стив Возняк, сооснователь Stability AI Эмад Мостак, экс-президент Baidu Я-Цинь Чжан, советник Папы Римского Паоло Бенанти, принц Гарри и Меган Маркл, лауреаты премии Тьюринга и Нобелевской премии — в том числе «крестный отец ИИ» Джеффри Хинтон. Авторы признают пользу от ИИ, но считают, что сверхразум, который вероятно появится уже через год-два может поработать людей или даже полностью уничтожить. Скептики указывают на максимально абстрактные формулировки. Неясно, кто должен ввести запрет и как его контролировать, что именно нельзя делать, когда наступит «консенсус» и будет получена всеобщая поддержка. В марте 2023, после выхода GPT-4, Институт уже призывал ввести полугодовой мора

❌ Ученые, бизнесмены и политики требуют запретить разработку сильного ИИ

Открытое письмо НКО «Института "Будущее жизни"» призывает к мораторию на создание сверхинтеллекта (AGI) — ИИ, который превзойдет человека в любых задачах.

✍️ Инициативу подписали более 37 тыс. человек, в том числе сооснователь Apple Стив Возняк, сооснователь Stability AI Эмад Мостак, экс-президент Baidu Я-Цинь Чжан, советник Папы Римского Паоло Бенанти, принц Гарри и Меган Маркл, лауреаты премии Тьюринга и Нобелевской премии — в том числе «крестный отец ИИ» Джеффри Хинтон.

Авторы признают пользу от ИИ, но считают, что сверхразум, который вероятно появится уже через год-два может поработать людей или даже полностью уничтожить.

Скептики указывают на максимально абстрактные формулировки. Неясно, кто должен ввести запрет и как его контролировать, что именно нельзя делать, когда наступит «консенсус» и будет получена всеобщая поддержка.

В марте 2023, после выхода GPT-4, Институт уже призывал ввести полугодовой мораторий на разработку более мощных ИИ-систем.

Поддерживаете запрет на разработку AGI?

🔥 — Да, пока не докажут безопасность

🎃 — Нет, прогресс нельзя останавливать

🤔 — Нужно регулировать, а не запрещать

👋 Подпишитесь на Hi, AI!