Как физическое, так и психологическое Подавляющее большинство профессионалов ИИ, а также политиков и даже военных привыкли к мысли, что два главных типа рисков, связанных с ИИ, — это риски аварий (ошибок в работе или выхода из строя) и риски нецелевого использования (непредусмотренного действия, произошедшего по недоработке, дурости или злонамеренности разработчиков, операторов, пользователей или злоумышленников). Смею утверждать, что это чрезвычайно упрощенная недооценка рисков ИИ, не учитывающая третий тип рисков — структурные риски, — из-за неадекватного понимания сути технологического феномена ИИ. И это странно. Ведь метафора, что ИИ подобен электричеству — структурно меняет большинство уже существующих технологий и позволяет создавать новые и доселе невообразимые, — широко известна и применяется всем, кому не лень. Но никому до сих пор так и не приходило в голову посмотреть на риски ИИ с этой метафорической точки зрения: - не как на риски конкретных технологий, использующих ИИ, -
Главный риск ИИ — «переформатирование мира»
21 февраля 201921 фев 2019
837
3 мин