Крутой лонгридище, в котором автор собрал высказывания практикующих (это важно) светил цифрового и техномира о рисках, связанных с появлением ИИ https://m.geektimes.ru/post/287056/
Все приведённые имена массово не так известны, как Маска, Хокинга, Гейтса, поэтому у каждого эксперта подробно расписаны его заслуги с соответствующими ссылками. Сногсшибательный объём работы. Приведены ссылки как на скептиков, так и на обеспокоенных появлением сверхмощного ИИ.
Совсем краткие выводы такие: сингулярности и появления ИИ, во много раз превосходящего коллективный разум, бояться стоит. Но запрещать разработки — не выход, лучше отслеживать изменения и регулировать процесс работы над ИИ с разных сторон (политической, законодательной, философской, экономической, этической и тд.).
Больше всего мне показалось интересным высказывание Юргена Шмидхубера — профессора ИИ в Университете Лугано и бывшего профессора когнитивной робототехники в Мюнхенском технологическом университете. Он разрабатывает одн