Найти тему
SERPENTINE

Чем грозит появление Искусственного интеллекта? Как избежать конца света?

Здесь нет простого определения искусственного интеллекта, Ученые не могут договориться, что представляет собой «истинный ИИ» Но вот выстрел: интеллект - это способность точно воспринимать окружающую среду и предпринимать действия, которые максимизируют вероятность достижения поставленных целей. Это не значит быть умным, в смысле обладания большим запасом знаний или способностью заниматься сложной математикой. Мой маленький сын не знает, что один плюс один равняется двум, и когда я писал свою книгу «Конечные времена», его словарный запас был в основном ограничен возбужденным криком «Собака!» Каждый раз, когда он видел что-то смутно пушистое и ходит на четырех ногах. (Я бы не стал вкладывать деньги в него на ежегодном конкурсе по широкому визуальному распознаванию ImageNet, Кубке мира по компьютерному зрению.) Но когда он прыгает на нашу кухню и выясняет, как добраться до стойки и вытащить печенье, он воспринимает и манипулирует окружающей средой для достижения своей цели - даже если его цель, в данном случае, сводится к сахару. Это искра интеллекта, качество, которое до сих пор демонстрировали только органическая жизнь - и люди больше всего.

Компьютеры уже могут обрабатывать информацию гораздо быстрее, чем мы. Они могут вспомнить гораздо больше, и они могут помнить это без упадка или задержки, без усталости, без ошибок. Это не ново. Но в последние годы компьютерная революция стала революцией в искусственном интеллекте. ИИ могут беспокоить нас в таких играх, как Шахматы и Го, которые долгое время считались надежными маркерами интеллекта. Они могут мгновенно распознавать изображения с небольшим количеством ошибок. Они могут играть на фондовом рынке лучше, чем ваш брокер. Они могут вести разговоры через текст почти так же хорошо, как и человек. Они могут сделать многое из того, что вы можете сделать - и они могут сделать это лучше.

Мы умны - Homo Sapiens в конце концов, означает «мудрый человек». Но ИИ может стать сверхразумным. Мы не поднялись на вершину пищевой цепи, потому что мы сильнее или быстрее, чем другие животные. Мы сделали это, потому что мы умнее. Уберите это первенство, и мы можем оказаться во власти супер интеллектуального ИИ, в том же смысле, в котором гориллы находятся под угрозой исчезновения. Так же, как мы изгнали бесчисленное количество видов не из-за вражды или даже намерения, а потому, что решили, что нам нужно пространство и ресурсы, которые они занимают, сверхинтеллектуальный ИИ может вытеснить нас из существования просто потому, что само наше присутствие мешает ИИ достигать своих целей. Мы не смогли бы противостоять этому больше, чем находящиеся под угрозой исчезновения животные смогли бы противостоять нам.

-2

Вы, наверное, слышали предупреждения. Основатель Tesla и SpaceX Илон Маск назвал ИИ «самым большим риском, с которым мы сталкиваемся как цивилизация», и назвал разработку общего ИИ «вызовом демона». Покойный Стивен Хокинг сказал, что «развитие полного искусственного интеллекта может означать конец человеческой расе».

Задолго до того, как появился подлинный ИИ, мы развлекались страшными историями о том, как интеллектуальные машины поднимаются и свергают их человеческих создателей: Терминатор, Матрица, ИИ - это конечный экзистенциальный риск. Но ИИ также является основным источником того, что некоторые называют «экзистенциальной надеждой», оборотной стороной экзистенциального риска. Экзистенциальный риск существует как академический предмет в основном из-за беспокойства об искусственном интеллекте. Все основные центры экзистенциального риска - Институт будущего человечества (ИБЧ), Институт будущего жизни (ИБЖ), Центр изучения экзистенциального риска (ЦИЭР) - ставят ИИ в центр своей работы. Например, ЦИЭР родился во время совместной поездки на такси, когда соавтор Skype Ян Таллинн сказал кембриджскому философу Хью Прайсу, что, по его мнению, его шанс умереть в результате несчастного случая, связанного с ИИ, столь же велик, как смерть от болезни сердца или рака. Таллинн далеко не единственный. ИИ - это конечный экзистенциальный риск, потому что наше разрушение произойдет от рук создания, которое будет представлять собой совокупность человеческого интеллекта. Но ИИ также является основным источником того, что некоторые называют «экзистенциальной надеждой», оборотной стороной экзистенциального риска. Наша уязвимость к существующим угрозам, естественным или искусственным, в значительной степени сводится к интеллекту.

Возможно, мы недостаточно умны, чтобы понять, как отклонить массивный астероид, и мы пока не знаем, как предотвратить супер разрыв. Мы знаем, как предотвратить ядерную войну, но мы недостаточно мудры, чтобы гарантировать, что эти ракеты никогда не будут запущены. Мы еще не достаточно умны, чтобы разрабатывать чистые и ультра дешевые источники энергии. Мы недостаточно умны, чтобы искоренить угрозу инфекционных заболеваний или разработать биологическую защиту, которая могла бы нейтрализовать любые инженерные патогены. Мы не достаточно умны, чтобы перехитрить смерть - себя или своего вида.

Но если ИИ станет тем, во что верят его самые пылкие евангелисты, - не просто искусственным интеллектом, а сверхинтеллектом - тогда ничто не станет невозможным. Мы могли бы колонизировать звезды, жить вечно, загружая наше сознание в виртуальные небеса, устраняя всю боль и беды, которые являются частью человеческого бытия. Вместо экзистенциальной катастрофы мы могли бы создать так называемую экзистенциальную «евкатастрофу» - внезапный взрыв стоимости. Единственным препятствием является интеллект - препятствие, создаваемое нашей собственной биологией и эволюцией. Но наши кремниевые творения, у которых нет таких ограничений, просто могли бы справиться с этим - и они могли бы привести нас с собой.