Философы, когнитивисты и инженеры пытаются понять, что нужно, чтобы ИИ стал сознательным.
16 октября 2023 г.
Дэвид Чалмерс не ожидал приглашения, которое он получил в сентябре прошлого года. Будучи ведущим специалистом в области сознания, Чалмерс регулярно ездит по миру, выступая с лекциями в университетах и на научных собраниях перед восторженной аудиторией философов – людей, которые могут часами спорить о том, реален ли мир за пределами их собственных голов, а затем беспечно заниматься всем остальным. своего дня. Однако этот последний запрос поступил из неожиданного источника: организаторов конференции по нейронным системам обработки информации (NeurIPS), ежегодного собрания самых ярких умов в области искусственного интеллекта.
Менее чем за шесть месяцев до конференции инженер по имени Блейк Лемуан, тогда работавший в Google, обнародовал свое заявление о том, что LaMDA, одна из систем искусственного интеллекта компании, обрела сознание. Заявления Лемуана были быстро отвергнуты в прессе, и он был уволен без суда и следствия, но джинн не мог так легко вернуться в бутылку, особенно после выпуска ChatGPT в ноябре 2022 года. Внезапно каждый мог вести сложный разговор. с вежливым, креативным искусственным агентом.
Чалмерс был в высшей степени разумным выбором, говоря о сознании ИИ. Он получил докторскую степень по философии в лаборатории искусственного интеллекта Университета Индианы, где он и его коллеги-компьютерщики проводили перерывы, обсуждая, смогут ли когда-нибудь машины обрести разум. В своей книге 1996 года «Сознательный разум» он посвятил целую главу доказыванию возможности искусственного сознания.
Если бы он мог взаимодействовать с такими системами, как LaMDA и ChatGPT, еще в 90-х годах, еще до того, как кто-либо знал, как такая вещь может работать, он бы подумал, что есть большая вероятность, что они находятся в сознании, говорит Чалмерс. Но когда он, одетый в свою фирменную кожаную куртку, предстал перед толпой посетителей NeurIPS в огромном конференц-зале Нового Орлеана, он высказал другую оценку. Да, большие языковые модели — системы, обученные на огромных массивах текста с целью максимально точно имитировать человеческое письмо, — впечатляют. Но, по его словам, им не хватает слишком многих потенциальных требований к сознанию, чтобы мы могли поверить, что они действительно познают мир.
Лиад Мудрик, нейробиолог, Тель-Авивский университет
«Сознание представляет собой уникальную проблему в наших попытках его изучения, потому что его трудно определить».
Однако при головокружительных темпах развития ИИ ситуация может внезапно измениться. Для своей математически склонной аудитории Чалмерс дал конкретную информацию: шансы на разработку сознательного ИИ в ближайшие 10 лет, по его оценкам, превышают один к пяти.
Не многие люди сочли его предложение нелепым, говорит Чалмерс: «Я имею в виду, я уверен, что у некоторых людей была такая реакция, но это были не те, кто разговаривал со мной». Вместо этого он провел следующие несколько дней в беседах за беседами с экспертами по искусственному интеллекту, которые очень серьезно отнеслись к описанным им возможностям. Некоторые пришли к Чалмерсу, кипящие энтузиазмом по поводу концепции сознательных машин. Другие, однако, были в ужасе от того, что он описал. Если бы ИИ был сознательным, утверждали они, — если бы он мог смотреть на мир со своей личной точки зрения, не просто обрабатывая входные данные, но и переживая их, — тогда, возможно, он мог бы пострадать.
Сознание ИИ — это не просто чертовски сложная интеллектуальная головоломка; это морально серьёзная проблема с потенциально ужасными последствиями. Если вы не сможете идентифицировать сознательный ИИ, вы можете непреднамеренно подчинить или даже подвергнуть пыткам существо, интересы которого должны иметь значение. Примите бессознательный ИИ за сознательный, и вы рискуете поставить под угрозу человеческую безопасность и счастье ради бездумного, бесчувственного куска кремния и кода. Обе ошибки легко совершить. «Сознание представляет собой уникальную проблему в наших попытках его изучения, поскольку его трудно определить», — говорит Лиад Мудрик, нейробиолог из Тель-Авивского университета, который исследует сознание с начала 2000-х годов. «Это по своей сути субъективно».
За последние несколько десятилетий небольшое исследовательское сообщество упорно атаковало вопрос о том, что такое сознание и как оно работает. Эти усилия привели к реальному прогрессу в решении проблемы, которая когда-то казалась неразрешимой. Теперь, с быстрым развитием технологий искусственного интеллекта, эти идеи могут стать нашим единственным путеводителем по непроверенным, морально чреватым водам искусственного сознания.
«Если мы, как отрасль, сможем использовать имеющиеся у нас теории и полученные нами результаты, чтобы провести хороший тест на сознание, — говорит Мудрик, — это, вероятно, будет одним из наиболее важных вкладов, которые мы могли бы дать».
Когда Мудрик объясняет свое исследование сознания, она начинает с одного из своих самых любимых блюд: шоколада. Помещение кусочка в рот вызывает симфонию нейробиологических событий: рецепторы сахара и жира на языке активируют проводящие пути, связанные с мозгом, скопления клеток в стволе мозга стимулируют слюнные железы, а нейроны глубоко внутри головы выделяют химический дофамин. Однако ни один из этих процессов не отражает того, что значит вырвать шоколадный квадрат из упаковки из фольги и позволить ему таять во рту. «Я пытаюсь понять, что в мозге позволяет нам не только обрабатывать информацию – что само по себе является огромной проблемой и удивительным достижением мозга – но и воспринимать информацию, которую мы обрабатываем», — говорит Мудрик.
С профессиональной точки зрения, изучение обработки информации было бы для Мудрика более простым выбором. Сознание долгое время было маргинальной темой в нейробиологии, которую считали в лучшем случае несерьезной, а в худшем — трудноразрешимой. «Увлекательный, но неуловимый феномен», — говорится в статье «Сознание» в Международном психологическом словаре за 1996 год . «На нем не написано ничего, что стоило бы читать».
Мудрика это не отговорило. Еще во время учебы в начале 2000-х она знала, что не хочет исследовать ничего, кроме сознания. «Возможно, это не самое разумное решение для молодого исследователя, но я просто ничего не могла с этим поделать», — говорит она. «Я не мог насытиться этим». Она получила две докторские степени — одну по нейробиологии, другую по философии — благодаря своему стремлению расшифровать природу человеческого опыта.
Какой бы скользкой ни была тема сознания, ее не невозможно определить — проще говоря, это способность испытывать вещи. Его часто путают с такими терминами, как «чувство» и «самосознание», но, согласно определениям, которые используют многие эксперты, сознание является предпосылкой для других, более сложных способностей. Чтобы быть разумным, существо должно иметь возможность испытывать как положительные, так и отрицательные переживания, другими словами, удовольствия и боли. А осознавать себя означает не только иметь опыт, но и знать , что вы его испытываете.
В своей лаборатории Мудрик не беспокоится о чувствительности и самосознании; ей интересно наблюдать за тем, что происходит в мозгу, когда она манипулирует сознательным опытом людей. Это в принципе легко сделать. Дайте кому-нибудь съесть кусочек брокколи, и этот опыт будет сильно отличаться от того, что вы съели кусок шоколада, и, вероятно, приведет к другому сканированию мозга. Проблема в том, что эти различия не поддаются интерпретации. Было бы невозможно различить, какие из них связаны с изменениями в информации (брокколи и шоколад активируют очень разные вкусовые рецепторы), а какие представляют собой изменения в сознательном опыте.
Хитрость заключается в том, чтобы изменить опыт, не изменяя стимул, например, дать кому-то кусок шоколада, а затем щелкнуть выключателем, чтобы почувствовать, как будто вы едите брокколи. Это невозможно со вкусом, но возможно с видением. В одном широко используемом подходе ученые предлагают людям одновременно смотреть на два разных изображения, по одному каждым глазом. Хотя глаза воспринимают оба изображения, невозможно воспринять оба одновременно, поэтому испытуемые часто сообщают, что их зрительный опыт «переворачивается»: сначала они видят одно изображение, а затем спонтанно видят другое. Отслеживая активность мозга во время этих перепадов сознания, ученые могут наблюдать, что происходит, когда поступающая информация остается прежней, но восприятие ее меняется.
С помощью этих и других подходов Мудрик и ее коллеги сумели установить некоторые конкретные факты о том, как сознание работает в человеческом мозге. Мозжечок, область мозга у основания черепа, напоминающая клубок пасты из ангельских волос размером с кулак, похоже, не играет никакой роли в сознательном опыте, хотя он имеет решающее значение для подсознательных двигательных задач, таких как езда на велосипеде; с другой стороны, связи обратной связи — например, связи, идущие от «высших» когнитивных областей мозга к тем, которые участвуют в более базовой сенсорной обработке, — кажутся важными для сознания. (Кстати, это одна из веских причин усомниться в сознательности студентов-магистров: у них отсутствуют существенные обратные связи.)
Десять лет назад группе итальянских и бельгийских нейробиологов удалось разработать тест человеческого сознания, в котором используется транскраниальная магнитная стимуляция (ТМС), неинвазивная форма стимуляции мозга, которая применяется путем поднесения магнитной палочки в форме восьмерки к чьей-то голове. . Только по полученным закономерностям мозговой активности команда смогла отличить людей в сознании от тех, кто находился под наркозом или глубоко спал, и даже обнаружить разницу между вегетативным состоянием (когда кто-то бодрствует, но не в сознании) и запертым состоянием. при синдроме (при котором пациент находится в сознании, но вообще не может двигаться).
Это огромный шаг вперед в исследованиях сознания, но он мало что значит для вопроса о сознательном ИИ: модели GPT OpenAI не имеют мозга, который можно стимулировать с помощью палочки TMS. Чтобы проверить сознание ИИ, недостаточно определить структуры, которые порождают сознание в человеческом мозге. Вам необходимо знать, почему эти структуры способствуют сознанию, достаточно строгим и общим способом, чтобы быть применимым к любой системе, человеческой или какой-либо другой.
«В конечном счете, вам нужна теория», — говорит Кристоф Кох, бывший президент Института Аллена и влиятельный исследователь сознания. «Вы больше не можете просто полагаться на свою интуицию; вам нужна фундаментальная теория, которая расскажет вам, что такое сознание, как оно попадает в мир и у кого оно есть, а у кого нет».
Вот одна теория о том, как может работать эта лакмусовая бумажка на сознание: любое достаточно разумное существо, способное успешно реагировать на достаточно широкое разнообразие контекстов и проблем, должно быть сознательным. На первый взгляд это не абсурдная теория. Насколько нам известно, мы, люди, обладаем самым умным мозгом, и мы определенно обладаем сознанием. Более умные животные, похоже, также с большей вероятностью обладают сознанием — существует гораздо больше консенсуса в отношении того, что шимпанзе обладают сознанием, чем, скажем, крабы.
Но сознание и интеллект — это не одно и то же. Когда Мудрик показывает изображения своим подопытным, она не просит их обдумывать что-либо и не проверяет их способности решать проблемы. Даже краб, бегающий по дну океана, не осознающий своего прошлого и не думающий о своем будущем, все еще был бы в сознании, если бы мог испытать удовольствие от вкусного кусочка креветки или боль от поврежденной клешни.
Сьюзан Шнайдер, директор Центра будущего разума Атлантического университета Флориды, считает, что ИИ может достичь более высоких высот интеллекта, полностью отказавшись от сознания. Сознательные процессы, такие как удержание чего-либо в кратковременной памяти, довольно ограничены — мы можем уделять внимание только нескольким вещам одновременно и часто с трудом справляемся с простыми задачами, такими как запоминание номера телефона на достаточно долгое время, чтобы позвонить по нему. Не сразу очевидно, какую выгоду ИИ получит от сознания, особенно учитывая впечатляющие достижения, которых такие системы смогли достичь без него.
Поскольку дальнейшие версии GPT оказываются все более интеллектуальными — все более и более способными удовлетворить широкий спектр требований, от сдачи экзамена на адвоката до создания веб-сайта с нуля — их успех сам по себе не может восприниматься как свидетельство их сознания. Даже машина, которая ведет себя неотличимо от человека, не обязательно вообще ни о чем не осведомлена.
Понимание того, как ИИ работает изнутри, может стать важным шагом к определению того, находится ли он в сознании.
Однако Шнайдер не потерял надежды на испытания. Вместе с физиком из Принстона Эдвином Тернером она сформулировала то, что она называет «тестом искусственного сознания». Это непросто: для этого необходимо изолировать ИИ-агента от любой информации о сознании на протяжении всего его обучения. (Это важно, так как она не может, как LaMDA, просто повторять человеческие утверждения о сознании.) Затем, как только система обучена, тестировщик задает ей вопросы, на которые она могла бы ответить только в том случае, если бы знала о сознании — знание, которое она могла бы получить только приобрели от самого сознания. Сможет ли он понять сюжет фильма «Чумовая пятница» , где мать и дочь меняются телами, а их сознание отделяется от физического тела? Понимает ли он концепцию сновидения или даже сообщает о самом сновидении? Может ли он представить себе реинкарнацию или загробную жизнь?
У этого подхода есть огромное ограничение: он требует наличия языка. Человеческие младенцы и собаки, которые, как широко распространено мнение, обладают сознанием, вряд ли смогут пройти этот тест, а ИИ вполне может обрести сознание, вообще не используя язык. Испытание языкового ИИ, такого как GPT, также невозможно, поскольку при его обучении он подвергался идее сознания. (Попросите ChatGPT объяснить «Чумовую пятницу» — он делает достойную работу.) А поскольку мы до сих пор так мало понимаем, как работают продвинутые системы ИИ, было бы сложно, если не невозможно, полностью защитить ИИ от такого воздействия. Сам наш язык пропитан фактом нашего сознания — такие слова, как «разум», «душа» и «я», имеют для нас смысл в силу нашего сознательного опыта. Кто сказал, что чрезвычайно умная, бессознательная система искусственного интеллекта не сможет это выяснить?
Если тест Шнайдера не является надежным, остается еще один вариант: открыть машину. Понимание того, как ИИ работает изнутри, может стать важным шагом к определению того, находится ли он в сознании, если вы знаете, как интерпретировать то, на что смотрите. Для этого необходима хорошая теория сознания.
Несколько десятилетий назад мы могли бы полностью заблудиться. Единственные доступные теории исходили из философии, и было неясно, как их можно применить к физической системе. Но с тех пор такие исследователи, как Кох и Мудрик, помогли разработать и уточнить ряд идей, которые могут оказаться полезными руководствами для понимания искусственного сознания.
Было предложено множество теорий, но ни одна из них еще не была доказана и даже не признана фаворитом. И они делают радикально разные прогнозы относительно сознания ИИ.
Некоторые теории рассматривают сознание как особенность программного обеспечения мозга: важно лишь то, чтобы мозг выполнял правильный набор задач правильным способом. Например, согласно теории глобального рабочего пространства, системы являются сознательными, если они обладают необходимой архитектурой: множеством независимых модулей плюс «глобальное рабочее пространство», которое принимает информацию из этих модулей и выбирает часть ее для трансляции по всей системе.
Другие теории более тесно связывают сознание с физическим оборудованием. Теория интегрированной информации предполагает, что сознание системы зависит от конкретных деталей ее физической структуры, в частности от того, как текущее состояние ее физических компонентов влияет на их будущее и указывает на их прошлое. Согласно ИИТ, обычные компьютерные системы и, следовательно, современный ИИ никогда не смогут быть сознательными — у них нет правильной причинной структуры. (Недавно эта теория подверглась критике со стороны некоторых исследователей, которые считают, что она привлекла слишком большое внимание.)
Анил Сет, профессор нейробиологии в Университете Сассекса, более симпатизирует теориям, основанным на аппаратном обеспечении, по одной главной причине: он считает, что биология имеет значение. Каждое известное нам сознательное существо расщепляет органические молекулы для получения энергии, работает над поддержанием стабильной внутренней среды и обрабатывает информацию через сети нейронов посредством комбинации химических и электрических сигналов. Если это верно для всех сознательных существ, утверждают некоторые учёные, то нетрудно заподозрить, что какая-либо из этих черт или, возможно, даже все из них могут быть необходимы для сознания.
Поскольку он считает, что биология так важна для сознания, говорит Сет, он тратит больше времени на беспокойство о возможности существования сознания в органоидах мозга — сгустках нервной ткани, выращенных в чашке, — чем в искусственном интеллекте. «Проблема в том, что мы не знаем, прав ли я», — говорит он. — И я вполне могу ошибаться.
Он не одинок в таком отношении. У каждого эксперта есть предпочитаемая теория сознания, но никто не рассматривает ее как идеологию — все они вечно готовы к тому, что поставили не на ту лошадь. За последние пять лет учёные, занимающиеся сознанием, начали работать над серией «соперничающих коллабораций», в рамках которых сторонники различных теорий собираются вместе, чтобы разработать нейробиологические эксперименты, которые могли бы помочь проверить их друг против друга. Исследователи заранее договариваются о том, какие результаты будут поддерживать ту или иную теорию. Затем они проводят эксперименты и смотрят, что происходит.
В июне Мудрик, Кох, Чалмерс и большая группа сотрудников опубликовали результаты состязательного сотрудничества, противопоставляющего теорию глобального рабочего пространства теории интегрированной информации. Ни одна из теорий не оказалась полностью успешной. Но Мудрик говорит, что этот процесс все равно был плодотворным: принуждение сторонников каждой теории к конкретным предсказаниям помогло сделать сами теории более точными и полезными с научной точки зрения. «Все эти теории находятся в стадии разработки», — говорит она.
В то же время Мудрик пытается выяснить, что такое разнообразие теорий означает для ИИ. Она работает с междисциплинарной командой философов, компьютерщиков и нейробиологов, которые недавно выпустили официальный документ , в котором содержатся некоторые практические рекомендации по обнаружению сознания ИИ. В статье команда опирается на различные теории, чтобы построить своего рода «табель успеваемости» — список маркеров, которые указывали бы на то, что ИИ находится в сознании, при условии, что одна из этих теорий верна. Эти маркеры включают наличие определенных связей обратной связи, использование глобального рабочего пространства, гибкое достижение целей и взаимодействие с внешней средой (реальной или виртуальной).
По сути, эта стратегия признает, что основные теории сознания имеют некоторый шанс оказаться правдой — и поэтому, если больше теорий согласятся с тем, что ИИ обладает сознанием, то, скорее всего, он действительно будет сознательным. Точно так же система, в которой отсутствуют все эти маркеры, может быть сознательной только в том случае, если наши текущие теории совершенно ошибочны. Вот где в настоящее время находятся такие LLM, как LaMDA: они не обладают правильным типом обратных связей, не используют глобальные рабочие пространства или, похоже, не обладают какими-либо другими маркерами сознания.
Однако проблема с «сознанием за комитетом» заключается в том, что такое положение дел не будет длиться долго. По мнению авторов официального документа, не существует серьезных технологических препятствий на пути создания систем искусственного интеллекта, которые получат высокие оценки в табель успеваемости по уровню сознания. Достаточно скоро мы столкнемся с вопросом прямо из научной фантастики: что делать с потенциально сознательной машиной?
В 1989 году, за несколько лет до того, как нейробиология сознания по-настоящему вступила в свои права, в « Звездном пути: Следующее поколение » в эфир вышел эпизод под названием «Мера человека». В центре эпизода - персонаж Дейта, андроид, который большую часть сериала проводит в борьбе со своей спорной человечностью. В этом конкретном эпизоде учёный хочет насильно разобрать Дейту, чтобы понять, как он работает; Дейта, обеспокоенный тем, что разборка может его убить, отказывается; а капитан Дейты Пикард должен защищать в суде свое право отказаться от процедуры.
Пикард никогда не доказывает, что Дейта в сознании. Скорее, он демонстрирует, что никто не может опровергнуть тот факт, что Дейта находится в сознании, и поэтому риск причинения вреда Дейту и потенциального обречения андроидов, которые придут за ним, на рабство, слишком велик, чтобы его можно было поддерживать. Это заманчивое решение загадки сомнительного сознания ИИ: относитесь к любой потенциально сознательной системе так, как будто она действительно сознательна, и избегайте риска причинения вреда существу, которое может действительно страдать.
Относиться к Дейте как к человеку просто: он может легко выражать свои желания и потребности, и эти желания и потребности имеют тенденцию напоминать желания и потребности его членов команды в общих чертах. Но защитить реальный ИИ от страданий может оказаться гораздо сложнее, говорит Роберт Лонг, научный сотрудник Центра безопасности ИИ в Сан-Франциско, который является одним из ведущих авторов официального документа. «У животных есть одно удобное свойство: они, по сути, хотят того же, что и мы», — говорит он. «Трудно понять, что это такое в случае с ИИ». Защита ИИ требует не только теории сознания ИИ, но и теории удовольствий и страданий ИИ, желаний и страхов ИИ.
Роберт Лонг, научный сотрудник по философии, Центр безопасности искусственного интеллекта в Сан-Франциско«У животных есть одно удобное свойство: они, по сути, хотят того же, что и мы. Трудно понять, что это такое в случае с ИИ».
И этот подход не лишен издержек. В «Звездном пути» учёный, который хочет разобрать Дейта, надеется создать больше таких же андроидов, как он, которых можно будет отправлять на рискованные миссии вместо другого персонала. Для зрителя, который видит Дейта как сознательного персонажа, как и все остальные в сериале, это предложение ужасает. Но если бы Дейта был просто убедительным подобием человека, было бы бессовестно подвергать опасности человека вместо него.
Забота о других существах означает защиту их от вреда, а это ограничивает выбор, который люди могут сделать с этической точки зрения. «Меня не особо беспокоят сценарии, в которых мы слишком заботимся о животных», — говорит Лонг. У прекращения промышленного сельского хозяйства есть несколько недостатков. «Но с системами искусственного интеллекта, — добавляет он, — я думаю, что действительно может возникнуть много опасностей, если мы переоценим сознание». Системы искусственного интеллекта могут дать сбой, и их придется отключить; возможно, их придется подвергнуть строгим испытаниям на безопасность. Это простые решения, если ИИ неодушевлен, и философские трясины, если необходимо принимать во внимание потребности ИИ.
Сет, который считает, что сознательный ИИ относительно маловероятен, по крайней мере, в обозримом будущем, тем не менее беспокоится о том, какое эмоциональное значение возможность существования ИИ может означать для людей. «Это изменит то, как мы распределяем наши ограниченные ресурсы заботы о вещах», — говорит он. Это может показаться проблемой будущего. Но восприятие сознания ИИ сейчас с нами: Блейк Лемуан пошел на личный риск ради ИИ, который, как он считал, был сознательным, и потерял работу. Сколько других готовы пожертвовать временем, деньгами и личными отношениями ради безжизненных компьютерных систем?
Даже простые чат-боты могут оказывать сверхъестественное воздействие: простая программа под названием ELIZA, созданная в 1960-х годах для имитации разговорной терапии, убедила многих пользователей в том, что она способна чувствовать и понимать. Восприятие сознания и реальность сознания плохо согласованы, и это несоответствие будет только усугубляться по мере того, как системы ИИ станут способны участвовать в более реалистичных разговорах. «Мы не сможем избежать восприятия их как сознательных переживаний, точно так же, как некоторые зрительные иллюзии когнитивно непроницаемы для нас», — говорит Сет. Точно так же, как знание того, что две линии в иллюзии Мюллера-Лайера имеют одинаковую длину, не мешает нам воспринимать одну как более короткую, чем другая, знание того, что GPT не осознается, не меняет иллюзии, что вы разговариваете с человеком. быть с точкой зрения, мнениями и личностью.
В 2015 году, за несколько лет до того, как эти опасения стали актуальными, философы Эрик Швицгебель и Мара Гарза сформулировали ряд рекомендаций, призванных защитить от подобных рисков. В одной из их рекомендаций, которую они назвали «Политикой проектирования эмоционального выравнивания», утверждалось, что любой бессознательный ИИ должен быть намеренно спроектирован так, чтобы пользователи не верили, что он сознателен. Компании предприняли несколько небольших шагов в этом направлении: ChatGPT выдает жестко запрограммированное отрицание, если вы спросите его, сознательно ли он это делает. Но такие ответы мало что могут разрушить общую иллюзию.
Швицгебель, профессор философии Калифорнийского университета в Риверсайде, хочет избегать любой двусмысленности. В своей статье 2015 года он и Гарза также предложили свою «политику исключенного среднего»: если неясно, будет ли система ИИ сознательной, эту систему не следует создавать. На практике это означает, что все соответствующие эксперты должны согласиться с тем, что будущий ИИ, скорее всего, не находится в сознании (их вердикт для нынешних LLM) или, скорее всего, находится в сознании. «Чего мы не хотим, так это запутывать людей», — говорит Швицгебель.
Избегание серой зоны спорного сознания аккуратно обходит как риски нанесения вреда сознательному ИИ, так и недостатки обращения с безжизненной машиной как с сознательной. Проблема в том, что сделать это может быть нереально. Многие исследователи, такие как Руфин ВанРуллен, директор по исследованиям французского Центра научных исследований, который недавно получил финансирование для создания ИИ с глобальным рабочим пространством, сейчас активно работают над тем, чтобы наделить ИИ потенциальной основой сознания.
Обратной стороной моратория на создание потенциально сознательных систем, по словам ВанРуллена, является то, что системы, подобные той, которую он пытается создать, могут быть более эффективными, чем нынешний ИИ. «Всякий раз, когда мы разочаровываемся в нынешней производительности ИИ, это всегда потому, что он отстает от того, на что способен мозг», — говорит он. «Так что моей целью не обязательно будет создание сознательного ИИ — скорее, цель многих людей, занимающихся ИИ сейчас, — двигаться к этим продвинутым способностям рассуждения». Такие расширенные возможности могут принести реальную пользу: лекарства, разработанные с помощью ИИ, уже проходят клинические испытания. Не исключено, что ИИ в серой зоне может спасать жизни.
ВанРуллен чувствителен к рискам сознательного ИИ — он работал с Лонгом и Мудриком над официальным документом об обнаружении сознания в машинах. Но именно эти риски, по его словам, делают его исследование важным. Скорее всего, сознательный ИИ сначала не возникнет в результате такого видимого, финансируемого государством проекта, как его собственный; вполне возможно, что это может занять глубокие карманы таких компаний, как Google или OpenAI. Эти компании, говорит ВанРуллен, вряд ли приветствуют этические затруднения, которые может возникнуть в результате сознательной системы. «Означает ли это, что когда это происходит в лаборатории, они просто делают вид, что этого не произошло? Означает ли это, что мы об этом не узнаем?» он говорит. «Я нахожу это весьма тревожным».
По его словам, такие учёные, как он, могут помочь снизить этот риск, лучше понимая, как работает само сознание как у людей, так и у машин. Эти знания могут затем позволить регулирующим органам более эффективно контролировать компании, которые, скорее всего, начнут заниматься созданием искусственного разума. Чем лучше мы понимаем сознание, тем меньше становится эта опасная серая зона — и тем больше у нас шансов узнать, находимся ли мы в ней или нет.
Со своей стороны, Швицгебель предпочел бы, чтобы мы вообще держались подальше от серой зоны. Но, учитывая масштабы связанной с этим неопределенности, он признает, что эта надежда, вероятно, нереалистична, особенно если сознательный ИИ в конечном итоге окажется прибыльным. И как только мы окажемся в серой зоне – когда нам нужно будет серьезно отнестись к интересам существ с дискуссионным сознанием – мы будем перемещаться по еще более сложной местности, сталкиваясь с моральными проблемами беспрецедентной сложности, не имея четкой дорожной карты, как их решить. . Исследователям, от философов до нейробиологов и компьютерщиков, предстоит взять на себя сложную задачу составления этой карты.
Оригинальная статья тут.