«Мы живём в эпоху, когда человечество может создать что-то, что окажется для него столь же фатальным. Мы стоим на пороге новой реальности, которая несёт не только потенциал для процветания, но и огромные риски».
– Ник Бостром, «Суперинтеллект. Пути, опасность, стратегия» Слова философа и футуролога Ника Бострома звучат как предупреждение. Его исследования искусственного интеллекта (ИИ) давно вызывают дискуссию: будет ли это технологическое чудо даром для человечества или его гибелью? Бостром говорит об «экзистенциальном риске» — моменте, когда ИИ, обладая превосходящим разумом, может стать не только неконтролируемым, но и гарантированным опасным для своего создателя. В 2014 году вышла книга Ника Бострома «Искусственный интеллект: пути, опасности, стратегии» (оригинальное название: Superintelligence: Paths, Dangers, Strategies). Примечательна она смотрит трезвым взглядом на развитие ИИ. На фактах и логике автор показывает и доказывает высокую вероятность возникновения сверхинтеллекта,