Согласно легенде, средневековый философ и монах Роджер Бэкон создал всезнающий искусственный мозг, который заключил в бронзовую человеческую голову. Бэкон, как гласит история, хотел использовать идеи, почерпнутые из этой «супер головы», чтобы использовать их в военных целях для своей страны.
Вслед за Бэконом давняя задача инженеров и компьютерных специалистов заключалась в создании искусственной копии мозга, которая могла бы соответствовать, а затем превосходить человеческий интеллект. Это стремление побуждает нас представить, что мы могли бы сделать, если нам удастся создать следующее поколение компьютерных систем, которые могут думать, мечтать и рассуждать за нас и вместе с нами.
Сегодня мало говорят о супер головах, но похоже, что искусственный интеллект есть повсюду. Журналы и газетные статьи бесконечно продвигают это, вызывая ожидания и страх.
Определенные формы ИИ действительно становятся повсеместными. Например, алгоритмы выполняют огромные объемы торговли на наших финансовых рынках, беспилотные автомобили начинают перемещаться по улицам города, а наши смартфоны переводят с одного языка на другой. Эти системы иногда быстрее и проницательнее, чем мы, люди. Но пока это справедливо только для конкретных задач, для которых система была разработана. Это то, что некоторые разработчики ИИ сейчас хотят изменить.
Некоторые из сегодняшних разработчиков ИИ хотят уйти от сегодняшнего мира «слабого» или «узкого» ИИ к созданию «сильного» или «полного» ИИ или того, что часто называют общим искусственным интеллектом (AGI). В некоторых отношениях современные мощные вычислительные машины уже заставляют наш мозг выглядеть ничтожным. Они могут хранить огромные объемы данных, обрабатывать их с исключительной скоростью и мгновенно обмениваться данными с другими компьютерами по всей планете. Если бы эти устройства могли быть снабжены алгоритмами AGI, работающими более гибкими способами, возможности были бы огромными.
AGI могла бы работать на нас усердно, круглосуточно и, опираясь на все доступные данные, могла бы предложить решения многих проблем, которые до сих пор оказались неразрешимыми. Возможно, они могли бы помочь обеспечить эффективную медицинскую помощь, избежать краха фондового рынка или предотвратить геополитический конфликт. DeepMind от Google, компания, занимающаяся разработкой AGI, имеет нескромные амбиции в этой области "решать интеллектуальные задачи". «Если мы добьемся успеха, - говорится в их заявлении, - мы считаем, что это будет одно из самых важных и широко полезных научных достижений, когда-либо сделанных.
С первых дней развития искусственного интеллекта ожидания опережали все возможное или даже вероятное. В 1965 году математик с богатым воображением Ирвинг Гуд, который был коллегой Алана Тьюринга по команде по взлому кодов времен Второй мировой войны в Блетчли-парке, предсказал возможное создание «сверхразумной машины ... которая может превзойти все интеллектуальные виды деятельности любого человека, каким бы умным он ни был ». Он предсказал, что такая машина сможет направить свой огромный интеллект на улучшение себя - каждая настройка будет увеличивать ее собственные возможности, что приведет к быстро ускоряющейся петле положительной обратной связи. «Тогда, несомненно, произошел бы« взрыв интеллекта », - писал Гуд, -« и разум человека остался бы далеко позади ».
Далее Гуд предположил, что «первая сверхразумная машина» может быть «последним изобретением, которое когда-либо понадобится человеку». Это привело к идее так называемой «технологической сингулярности», предложенной Рэем Курцвейлом, который утверждает, что появление сверхинтеллектуальных компьютеров станет критическим поворотным моментом в нашей истории, после которого произойдет взрыв технологического и интеллектуального мастерства, который изменит все грани существования. Гуд добавил к своему предсказанию о «последнем изобретении» важное уточнение: идею о том, что мы сможем воспользоваться его преимуществами, «при условии, что машина будет достаточно послушной, чтобы указывать нам, как держать ее под контролем».
Опасения по поводу появления зловредных, мощных, созданных руками человека интеллектуальных машин подкрепляются многими художественными произведениями - например, «Франкенштейном» Мэри Шелли и сериалом фильмов «Терминатор». Но если ИИ в конечном итоге окажется нашей угрозой, маловероятно, что он будет испытывать злобу или агрессию.
Философ Ник Бостром считает, что наиболее серьезные риски, связанные с AGI не связаны с агрессией против человечества, а с преследованием поставленных целей за счет всего остального. Исследователь искусственного интеллекта Беркли Стюарт Рассел резюмирует то, как он видит суть этой проблемы: «Если вы, например, поставите задачу:« Я хочу, чтобы все, к чему я прикасаюсь, превратилось в золото », то это именно то, что вы получите, и тогда вы пожалете об этом ». Если компьютеры действительно станут чрезвычайно умными, нет причин ожидать, что они поделятся какими-либо способностями, которые люди признали бы справедливостью или состраданием.
По словам ученных, «мы находимся на несколько алгоритмических прорывов от того, чтобы иметь что-либо, что можно было бы признать искусственным интеллектом». Тонг Чжан, который до начала этого года возглавлял отдел исследований ИИ в китайской технологической фирме Tencent, соглашается: «Если вам нужен ИИ в целом, вам, безусловно, придется преодолеть множество препятствий». «Я просто не вижу каких-либо практических движущих сил в ближайшем будущем для сквозного общего суперинтеллекта», - говорит робототехник из Массачусетского технологического института Синтия Бризил. Марк Джеймс из Beyond Limits также сомневается в том, что кто-то действительно идет по пути к развитию настоящего AGI, говоря, что «для того, чтобы область ИИ действительно прогрессировала до такой степени, что у нас появилась действительно человеческая мыслящая машина, мы должны переосмыслить проблему с квадрата». один."
Я думаю, Джеймс прав - в конце концов, как мы можем спроектировать то, что мы даже не можем определить? Нам так и не удалось понять, что такое естественный человеческий интеллект, поэтому непонятно, что инженеры пытаются имитировать в машинах. Интеллект - это не единственный физический параметр, а множество типов интеллекта, включая эмоциональный, музыкальный, спортивный и математический интеллект. Зубин Гахрамани, профессор Кембриджа и главный научный сотрудник Uber, соглашается: «Я вообще-то не думаю, что существует такая вещь, как общий интеллект», - сказал он мне. А если нет такой вещи, как общий интеллект, нет никакой надежды построить его ни из синтетических, ни из биологических компонентов. Гахрамани идет еще дальше, утверждая, что «наш взгляд на интеллект является« докоперниканским ». Так же, как Земля не находится в центре нашей солнечной системы, человеческий мозг не представляет собой вершину разума.
Все это означает, что даже если бы мы могли имитировать интеллект человеческого мозга, это не обязательно было бы лучшим мощным путем к мощным формам ОИИ. Как заметил ведущий исследователь ИИ Майкл Джордан из Калифорнийского университета в Беркли, гражданское строительство не развивалось за счет попыток создания искусственных каменщиков или плотников, а химическая инженерия не возникла в результате создания химика-искусителя. кто-нибудь верите, что наибольший прогресс в инженерии информации должен исходить от попыток создать искусственный мозг?
Вместо этого я думаю, что инженеры должны направить свое воображение на создание компьютерных систем, которые думают так, как мы не можем: которые борются с неопределенностью, рассчитывают риск, рассматривая тысячи или миллионы различных переменных, и объединяют огромное количество плохо структурированных данных из множества различных источников.
Ничто из этого не умаляет мощи все более адаптируемых алгоритмов ИИ или игнорирует риски, которые они могут однажды создать из-за непредвиденных побочных эффектов или вредоносных приложений. Но если у нас есть основания полагать, что машина с обобщенным человеческим интеллектом невозможна, многие опасения по поводу ИИ улетучиваются; нет необходимости вписывать какой-либо строго определенный моральный кодекс или систему ценностей в работу систем ИИ. Вместо этого наша цель должна заключаться в том, чтобы сделать их управляемыми и максимально реагирующими на наши потребности. Многие первоклассные исследователи и мыслители посвящают много времени и энергии предупреждению проблем, связанных с ИИ, до того, как они возникнут.
Рассел считает, что ключ к тому, чтобы сделать системы ИИ более безопасными и мощными, заключается в том, чтобы сделать их цели по своей сути неясными или, говоря терминологией информатики, внести неопределенность в их цели. Как он говорит: «Я думаю, что нам действительно нужно перестраивать ИИ, начиная с его основания. Основа, которая была создана, - это рациональный [человекоподобный] агент в оптимизации целей. Это просто особый случай ". Рассел и его команда разрабатывают алгоритмы, которые будут активно стремиться узнавать от людей, чего они хотят достичь и какие ценности для них важны. Он описывает, как такая система может обеспечить некоторую защиту, «потому что вы можете показать, что машина, неуверенная в своей цели, хочет, например, выключиться».
Подобная работа важна, особенно потому, что Рассел и его сотрудники не просто отмечают плохо определенные риски, но также предлагают конкретные решения и меры безопасности. Именно это имела в виду профессор Стэнфордского ИИ и бывший глава Google Cloud Фей-Фей Ли, когда сказала мне: «Нехорошо просто проповедовать некую антиутопию [об ИИ]. Гораздо ответственнее проповедовать вдумчивое послание ».
Если бы единственным сообщением о больших скачках в физике в начале 20-го века были ужасные предупреждения о надвигающемся ядерном Армагеддоне, у нас не было бы сейчас всех удивительных открытий, связанных с нашим пониманием атомных структур и квантовой механики. Риски, связанные с ИИ, следует рассматривать в перспективе и реагировать на них конструктивными действиями и регулированием, а не заламыванием рук и алармизмом.
Между чрезвычайно оптимистичным и ужасающе пессимистичным лежит более реалистичное будущее ИИ. Задолго до того, как они достигнут чего-либо, хотя бы отдаленно напоминающего сверхразум, компьютеры будут продолжать изменять то, как мы живем и мыслим, способами, которые одновременно далеко идущие и трудно предсказуемые. По мере того, как наши компьютеры становятся умнее, люди также становятся умнее и способнее. Нам потребуются вычислительные мощности и все более интеллектуальные идеи, генерируемые машинами, чтобы решать наши самые насущные глобальные проблемы - от борьбы с изменением климата до лечения рака - и искать ответы на самые глубокие вопросы о нас самих и нашем месте в более широкой вселенной.
Несмотря на попытки средневекового алхимика Роджера Бэкона, инженеры до сих пор терпели неудачу в своих попытках имитировать человеческий мозг в машинной форме. Вполне возможно, что им никогда не удастся реализовать эти амбиции. Но эта неудача не имеет значения. Несмотря на то, что современные передовые системы искусственного интеллекта мыслят явно нечеловеческими способами, они являются одними из самых мощных инструментов, которые мы создали. Если мы будем использовать их разумно и ответственно, они могут помочь нам построить лучшее будущее для всего человечества.