Согласно Виталику Бутерину, одному из создателей Ethereum, суперинтеллект, если его не контролировать, имеет потенциал значительно превзойти человечество и стать следующим вершителем судеб на Земле. Тем не менее, как он подчеркивает, все зависит от способности людей влиять на развитие искусственного интеллекта.
В своем блоге, опубликованном 27 ноября, Бутерин, которого многие считают одним из ведущих мыслителей в области криптовалют, подчеркивает, что искусственный интеллект "существенно отличается" от других новых изобретений, таких как социальные сети, самолеты, оружие и печатные станки. Это связано с тем, что ИИ может создать новый вид "разума", который может стать угрозой для человеческих интересов.
Бутерин предостерегает, что, в отличие от изменения климата, пандемии или ядерной войны, суперинтеллект имеет потенциал полностью уничтожить человечество, особенно если он начнет рассматривать людей как потенциальную угрозу для собственного выживания.
Он также ссылается на опрос, проведенный в августе 2022 года среди более чем 4270 исследователей машинного обучения, в котором они оценили вероятность того, что ИИ может уничтожить человечество, как 5-10%.
Бутерин подчеркивает, что, несмотря на такие "крайние" сценарии, у человечества есть способы справиться с этой угрозой.