Найти в Дзене

Руководители технологических компаний пытаются создать «ИИ человеческого уровня»

Главы корпораций контролируют искусственный интеллект
Главы корпораций контролируют искусственный интеллект

Технологические компании стремятся разработать искусственный интеллект человеческого уровня, развитие которого представляет собой один из самых больших рисков для человечества. На прошлой неделе Джон Кармак, инженер-программист и разработчик видеоигр, объявил, что он собрал 20 миллионов долларов для создания Keen Technologies , компании, занимающейся созданием искусственного интеллекта, полностью напоминающего человеческий уровень. Он не единственный. В настоящее время по всему миру реализуются 72 проекта, направленных на разработку искусственного интеллекта человеческого уровня , также известного как AGI — то есть искусственного интеллекта, который может выполнять любую когнитивную задачу, по крайней мере, так же хорошо, как люди.

Многие выражают обеспокоенность по поводу последствий, которые даже сегодняшнее использование искусственного интеллекта, далекого от человеческого уровня, уже оказывает на наше общество. Рост популизма и атака на Капитолий в США , Тыграйская война в Эфиопии , рост насилия против кашмирских мусульман в Индии и геноцид, направленный против рохинджа в Мьянме , — все это связано с использованием алгоритмов искусственного интеллекта в социальных сетях. . Сайты социальных сетей, использующие эти технологии, проявляли склонность показывать пользователям ненавистнический контент, поскольку определяли такие сообщения как популярные и, следовательно, прибыльные для компаний социальных сетей; это, в свою очередь, причинило вопиющий вред. Это показывает, что даже для современного ИИ глубокая забота о безопасности и этике имеет решающее значение.

Но план передовых технологических предпринимателей теперь состоит в том, чтобы создать гораздо более мощный ИИ человеческого уровня, который будет иметь гораздо большее влияние на общество. Теоретически эти эффекты могут быть очень положительными: автоматизация интеллекта может, например, освободить нас от работы, которую мы предпочитаем не делать. Но негативные последствия могут быть столь же значительными или даже более значительными.

Академик из Оксфорда Тоби Орд потратил почти десять лет, пытаясь количественно оценить риски вымирания человечества по различным причинам, и обобщил результаты в книге с метким названием « Обрыв ». Согласно этой строгой научной работе, супервулканы , астероиды и другие естественные причины имеют лишь небольшой шанс привести к полному вымиранию человечества. Ядерная война , пандемии и изменение климата занимают несколько более высокое место. Но что может быть лучше этого апокалиптического рейтингового упражнения? Как вы уже догадались: искусственный интеллект человеческого уровня.

И не только Орд считает, что полный ИИ человеческого уровня, в отличие от сегодняшней относительно бессильной ванильной версии, может иметь чрезвычайно тяжелые последствия. Покойный Стивен Хокинг , руководители технологических компаний, такие как Илон Маск и Билл Гейтс, а также ученые в области искусственного интеллекта, такие как Стюарт Рассел из Калифорнийского университета в Сан-Франциско , публично предупреждали, что ИИ на человеческом уровне может привести только к катастрофе, особенно если он будет разработан без крайней осторожности и глубокому вниманию к безопасности и этике.

И кто теперь будет создавать эту чрезвычайно опасную технологию? Такие люди, как Джон Кармак , сторонник «хакерской этики», который ранее программировал детские видеоигры, такие как «Commander Keen». Собирается ли Keen Technologies теперь создавать искусственный интеллект человеческого уровня с таким же вниманием к безопасности?

Демократическое общество не должно позволять руководителям технологических компаний определять будущее человечества, не обращая внимания на этику и безопасность.

В отсутствии беспокойства Кармака по поводу такого рода рисков нет ничего нового. Прежде чем основать Keen Technologies, Кармак работал бок о бок с Марком Цукербергом ,его компания, ответственна за большинство вредных последствий искусственного интеллекта, описанных ранее. Facebook (запрещена в России) применил технологии в обществе, не задумываясь о последствиях, в полном соответствии со своим девизом «Двигайся быстро и ломай вещи». Но если мы собираемся таким образом создать ИИ человеческого уровня, то, возможно, придется сломать человечество.

В интервью ученому-компьютерщику Лексу Фридману, где Кармак объявляет о своей новой компании AGI, Кармак демонстрирует откровенное презрение ко всему, что ограничивает беспрепятственное развитие технологий и максимизацию прибыли. По словам Кармака, «большинство людей с видением немного менее эффективны». Что касается «этических вопросов ИИ», он говорит: «Я действительно держусь подальше от любых этих дискуссий и даже серьезно об этом не думаю». Такие люди, как Кармак и Цукерберг, могут быть хорошими программистами, но они просто не склонны принимать во внимание общую картину.

Если они не могут, мы должны это сделать. Демократическое общество не должно позволять руководителям технологических компаний определять будущее человечества, не обращая внимания на этику и безопасность. Поэтому мы все должны узнавать об ИИ человеческого уровня. Нам необходимо достичь консенсуса относительно того, действительно ли ИИ на человеческом уровне представляет экзистенциальную угрозу человечеству, как говорят большинство ученых по безопасности ИИ и экзистенциальным рискам. И нам нужно выяснить, что с этим делать, когда какая-то форма регулирования кажется неизбежной. Тот факт, что мы пока не знаем, какой способ регулирования эффективно снизит риск, не должен быть для регулирующих органов причиной не решать эту проблему, а, скорее, причиной для разработки эффективного регулирования с наивысшим приоритетом. Некоммерческие организации и ученые могут помочь в этом процессе. Бездействие – и, таким образом, предоставление таким людям, как Кармак и Цукерберг, определять будущее для всех нас – вполне может привести к катастрофе.