Элиезер Юдковски, ведущий исследователь Machine Intelligence Research Institute, пошел дальше остальных. Он считает, что нужно остановить ИИ, уничтожить его, чтобы спасти человечество и все живое на Земле.
Своими мыслями по этому поводу эксперт поделился в колонке журнала Time.
По словам Юдковски, человечество еще не готово к появлению такой системы, нам не хватает знаний в инженерной области для обеспечения ее безопасности.
Споры среди ученых по поводу мощного ИИ не утихают. Пока одни бьют тревогу, считая, что попади не в те руки, технология может нанести невосполнимый вред человечеству. Другие видят в ней решение важнейших мировых проблем, уверяя, что ИИ поможет справиться с бедностью, изменением климата и болезнями.
Юдковски предостерегает, что при создании более мощного ИИ, исчезнет каждый представитель людского рода и биологическая жизнь на планете.