Исследования глобальных рисков
Сегодня наши знания об окружающем мире настолько обширны, что все предыдущие поколения определенно точно позавидовали бы нам. В то время как наши бабушки и дедушки стирали вручную, так же мыли полы и посуду, сегодня все больше людей возлагают эти обязанности на роботов. Все, что нам остается – загрузить и разгрузить стиральную/посудомоечную машину, что попросту не сравнимо с работой руками.
Но за этот комфорт, все же, приходится платить. История раз за разом демонстрирует нам пути развития общества. За ту немногочисленную историю человечества (по сравнению с возрастом Вселенной) пали такие цивилизации как Майя, Древняя Месопотамия, Древняя Греция, Цивилизация Ольмеко, Древний Рим и прочие, прочие.
На первый взгляд может показаться, что история падения древних цивилизаций и империй – это не про нас. Ведь наше могущество, способность отправлять в космос ракеты, изучать другие планеты и связывать мир в единое информационное поле должны привести нас к лучшему будущему. Однако реальность, как это часто бывает, рисует совершенно иную картину – мы с вами прямо сейчас движемся к катастрофе и возможному вымиранию.
Об этом свидетельствуют результаты сотен научных исследований. Недавно, например, был опубликован новый доклад МГЭИК, посвященный проблемам, связанным с изменением климата. Его результаты вторят результатам многочисленных научных работ, вывод из которых напрашивается неутешительный – нашей цивилизации осталось в лучшем случае 500 лет.
Но стремительно меняющийся климат, хотим мы этого или нет, не является единственной серьезной угрозой для человечества. И пока исследователи и эксперты со всего мира заняты решением проблем, вызванных глобальным потеплением, ряд ученых осмелился заглянуть в наше технологическое будущее. И нам действительно есть чего опасаться.
Что такое Искусственный интеллект?
Искусственный интеллект – это попытка создать компьютеры, способные к разумному поведению. По сути, это универсальный термин, используемый для обозначения всего – от Siri до IBM Watson и мощных технологий, которые нам еще предстоит изобрести.
Некоторые исследователи различают «узкий ИИ» или слабый ИИ — компьютерные системы, которые лучше людей в какой-то конкретной, четко определенной области, такой как игра в шахматы, генерация изображений или диагностика рака, — и «общий ИИ» – то есть, системы, которые могут превзойти человеческие возможности во многих областях. На сегодняшний день общего ИИ у нас нет, однако исследователи все лучше начинают осознавать проблемы, который он может собой представлять.
За последние несколько лет узкий ИИ добился необычайного прогресса: сегодня системы искусственного интеллекта отлично справляются с переводом иностранной речи, с игрой в шахматы и Го, а также в помогают решать важные вопросы исследовательской биологии, например предсказание того, как сворачиваются белки, и при создании изображений.
Более того, системы искусственного интеллекта определяют, что именно мы увидим в поиске Google или Яндекс или в ленте новостей Facebook или Вконтакте. Они сочиняют музыку и пишут статьи, которые на первый взгляд не отличаются от написанных человеком текстов. Эти же системы разрабатываются для улучшения наведения беспилотных летательных аппаратов и обнаружения ракет.
Но узкий ИИ становится все менее… слабым. На сегодняшний день ученым удалось добиться значительного прогресса в области искусственного интеллекта, кропотливо обучая компьютерные системы конкретным концепциям. И в последние годы интерес многих ученых нацелен на создание компьютерных систем, способных к обучению.
Иными словами, вместо математического описания подробных особенностей проблемы, исследователи позволили компьютерной системе изучать эти особенности самостоятельно. И по мере развития этой системы ИИ начинают демонстрировать более общие возможности.
В целом, прогресс в области искусственного интеллекта позволил ученым добиться огромных успехов, а также поднял насущные этические вопросы. Так, Рози Кэмпбелл из Центра ИИ при Калифорнийском университете в Беркли утверждает, что нынешние трудности никак не связаны с теми жуткими сценариями из фильмов о восстании машин. Скорее, они возникают из-за несоответствия между тем, что мы приказываем нашим системам делать, и тем, что мы на самом деле от них хотим.
Проблемы, однако, возникают из-за того, что системы действительно хороши в достижении поставленной (или заданной) цели; но цель, которую они усвоили в своей учебной среде – это не тот результат, которого ученые на самом деле хотели добиться.
«В результате мы создаем системы, которые не понимаем, а это означает, что мы не всегда можем предвидеть их поведение», – отмечают исследователи.
Потенциальные угрозы ИИ
Ну вот мы и подобрались к самому интересному. Если ученые действительно сталкиваются с проблемами, описанными выше, то какие же угрозы могут принести нам новейшие открытия в области ИИ? На самом деле все больше исследователей сомневаются в нашей способности управлять сверхразумом, в который потенциально могут превратиться обученные нами системы.
Дело в том, что для управления сверхразумом, находящимся далеко за пределами человеческого понимания, потребуется имитация этого сверхразума, которую мы можем проанализировать. Но если мы не в состоянии понять эти системы, то создать такую симуляцию невозможно. Более того, мы даже не можем установить правила, предложенные Айзеком Азимовым – «не причинять вреда людям». Ведь если мы не понимаем, какие сценарии собирается придумать ИИ, то как их предотвратить?
Как только компьютерная система сможет работать на уровне, превышающем возможности наших программистов, мы больше не сможем устанавливать ограничения, – пишут авторы исследования, опубликованного в журнале Journal of Artificial Intelligence Research.
Интересно, что часть рассуждений, описанных в научной работе, восходят к трудам Алана Тьюринга 1936 года. С помощью сложных математических уравнений он придумал абстрактную вычислительную машину, которая формализовала определение алгоритма.
Иными словами, он попытался понять, можно ли решить любую задачу с помощью математических алгоритмов (а также те, что можно решить только методом перебора). Сам Тьюринг считал, что к 2000 году машины будут способны обмануть человека в 30% случаев.
Описание «машины Тьюринга» в конечном итоге позволило ученым подступиться к этим сложным задачам. О том, что представляет собой машина Тьюринга можно узнать на официальном сайте Кембриджского университета.
Еще одна проблема в случае появления суперинтеллекта, заключается в том, что любая программа, написанная для того, чтобы остановить ИИ, который хочет убить всех людей, может «понять» эту программу (и остановиться) или нет. Суть в том, что математически мы не можем быть абсолютно уверены в том, какой вывод сделает программа. И если говорить совсем просто, это означает, что программу «уничтожить всех» будет невозможно сдержать.
А если не разрушать мир?
Альтернативой обучению ИИ некоторой этике и указанию ему не разрушать мир – а именно в этом по словам исследователей, ни один алгоритм не может быть абсолютно уверен – является ограничение возможностей сверхразума. Например, он может быть отключен от некоторых частей Интернета или от определенных сетей.
Но еще одно недавнее исследование отвергает эту идею, предполагая, что возможности искусственного интеллекта ограничены. Данный аргумент гласит, что если мы не собираемся использовать ИИ для решения проблем, выходящих за рамки человеческих возможностей, то зачем вообще его создавать?
Если мы хотим построить будущее, в котором будут присутствовать ИИ системы, то можем даже не знать, когда появится сверхразум, находящийся вне нашего контроля, такова его непостижимость. А так как мы к созданию сверхразума стремимся, пришла пора задавать серьезные вопросы о направлениях, в которых движется развитие этих технологий.
Суперинтеллектуальная машина, которая управляет миром, звучит как научная фантастика, – говорит Мануэль Себриан из Института человеческого развития Макса Планка. Но уже есть сегодня машины, которые выполняют определенные важные задачи самостоятельно, без полного понимания программистами того, как они этому научились.
Поэтому возникает вопрос – и вполне справедливо – может ли ИИ в какой-то момент стать неконтролируемым и опасным для человечества? Илон Маск, например, как и британский физик-теоретик Стивен Хокинг, считает что да. А что вы думаете по этому поводу?
По материалам: https://hi-news.ru/