Найти в Дзене
Игро и техно мир

ИИ опасны?

Илон Маск и другие эксперты призывают остановить разработку ИИ В письме на сайте Future of Life говорится о том, что искусственный интеллект представляет угрозу для всего человечества, из-за чего Илон Маск и другие известные деятели, такие как сооснователь Apple Стив Возняк, известные писатели, соучредители больших компаний и прочие влиятельные люди подписавшие его, просят остановить обучение ИИ на пол года, чтобы разработать протоколы безопасности для его урегулирования.  „Современные ИИ-системы научились конкурировать с людьми в решении общих задач, и мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, включая те, которые приносят нам удовлетворение? Должны ли мы развивать машинный разум, который в конечном итоге может превзойти нас числом, перехитрить и заменить нас? Стоит ли нам рисковать потерей контроля над нашей цивилизацией? За такие решения не должны отвечать н

Илон Маск и другие эксперты призывают остановить разработку ИИ

В письме на сайте Future of Life говорится о том, что искусственный интеллект представляет угрозу для всего человечества, из-за чего Илон Маск и другие известные деятели, такие как сооснователь Apple Стив Возняк, известные писатели, соучредители больших компаний и прочие влиятельные люди подписавшие его, просят остановить обучение ИИ на пол года, чтобы разработать протоколы безопасности для его урегулирования. 

„Современные ИИ-системы научились конкурировать с людьми в решении общих задач, и мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, включая те, которые приносят нам удовлетворение? Должны ли мы развивать машинный разум, который в конечном итоге может превзойти нас числом, перехитрить и заменить нас? Стоит ли нам рисковать потерей контроля над нашей цивилизацией?

За такие решения не должны отвечать неизбранные лидеры технологий. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми. В недавнем заявлении OpenAI касательно ИИ говорится, что «в будущем может настать момент, когда компаниям перед обучением новых систем может понадобиться независимая оценка и ограничение скорости роста вычислений». Мы согласны. Этот момент уже настал.”