Один из самых активных в мире критиков искусственного интеллекта (ИИ) выступил с решительным призывом не только поставить разработку ИИ на паузу, но и вообще положить ему конец — пока он не прикончил человечество. В статье журнала Time специалист по искусственному интеллекту Элиезер Юдковски, который более двух десятилетий предупреждал об антиутопическом будущем, которое наступит, когда развитие прогресса достигнет сильного искусственного интеллекта (AGI) или технологической сингулярности, снова бьет тревогу. Юдковски отметил, что, хотя он хвалит тех, кто подписал недавнее открытое письмо Института будущего жизни, в том числе генерального директора SpaceX Илона Маска и соучредителя Apple Стива Возняка, призывающих к шестимесячной паузе в разработке ИИ, он сам не подписал письмо, потому что считает, что этих мер не достаточно. «Я воздержался от подписи, потому что считаю, что письмо преуменьшает серьезность ситуации и требует слишком мало для ее решения». Юдковски говорит, что его мень
Эксперт по машинному обучению призывает остановить распространение ИИ
3 апреля 20233 апр 2023
183
1 мин