Можно на какое-то время задуматься, что компьютеры превзойдут человеческий разум во много раз, благодаря своему уму. Звучит как сюжет фантастического фильма, правда? Но ученые и инженеры уже десятки лет активно обсуждают эту идею. Сингулярность - возможный момент, когда технологическое развитие становится неуправляемым и необратимым, человек за ним не поспевает. В первой части мы разобрали концепцию трансгуманизма, если еще не читали, то тут можете с ней ознакомиться Первыми к этой концепции пришли писатели-фантасты и ученые в середине прошлого века. Они рассуждали, что может произойти, если машины перегонят людей по уму. Позже, футуролог Рэй Курцвейл назвал эту идею "технологической сингулярностью". Именитый физик Стивен Хокинг, боится сингулярности. Он думает, что ИИ может стать бесконтрольным и не безопасным для человечества. Другие надеются, что сингулярность подарит нам много пользы: поспособствует к победе над болезнями, искоренит голод и старение. Ученые и футуристы выделяют н
Путеводитель по футурологическим концепциям ИИ: сингулярность — конец человечества или новая ветвь истории?
12 апреля 202512 апр 2025
2
1 мин