Найти тему

ИИ = Si vis pacem, para bellum и A la guerre comme à la guerre

Почему я так ратую за усиление и ускорение работ по созданию и разработке систем усиления человеческого разума и создания коллективных мыслительных сетей? Да потому, что люди доминируют на планете Земля, несмотря на то, что они не самый крупный, не самый сильный и даже не самый быстрый вид. И человеческое превосходство почти полностью связано с нашей изобретательностью и интеллектом. Что же произойдёт, если когда-нибудь ИИ будет иметь такое же преимущество над нами?

-2

Он будет предвидеть наши действия, так что просто вырубить систему не получится: компьютер будет защищаться. Как на нас отразится то, что мы перестанем быть самым разумным видом на планете? Скорее всего, "могут осуществиться сценарии развития, которые несут в себе экзистенциальную угрозу для человечества, сопоставимую с полным вымиранием Homo Sapiens".

-3

Радует меня то, что данной проблемой озабочен не только я, который пока что может лишь писать свои размышления в этом канале, а и гораздо более известные люди - Элон Маск, Стив Возняк, Ник Бостром и ряд других. Так, например, Ник Бостром поднял данный вопрос в его книге «Искусственный интеллект. Этапы. Угрозы. Стратегии» пишет, что люди должны тщательно обдумывать действия по созданию ИИ, чтобы ситуация оставалась в их руках. Об этом же он говорит в своём выступлении на TED.
Ответственный подход - по крайней мере, в публичных заявлениях - к разработкам ИИ демонстрируют и некоторые компании, например,
IBM, одной из первых создавшая свой кодекс этики при создании систем ИИ.

О необходимости встраивания в системы ИИ своего рода "предохранителей" говорит и академик Константин Анохин. И понятно, что эти системы должны быть такими, которые ИИ, даже став сверх-умным, не смог бы отключить (например, если их отключение приведёт к его немедленному уничтожению физическим путём, или т.п.).

Известный нейролингвист Татьяна Черниговская во многих своих интервью на тему ИИ vs Человеческий Разум подчёркивала, что создавать ИИ, который сможет нас заменить - это безумие и форма мазохизма. Так, в интервью Татьяна Черниговская: «Апокалипсис сегодня» #ещенепознер - послушайте с момента, на котором откроется это видео до 38.00 - где Черниговская прямо говорит, что если будет создан ИИ, который осознает себя, это станет началом конца человечества и предостерегает от этого.
Об опасности неконтролируемого развития использования искусственного интеллекта предупреждает и вице-президент Сколтеха в области искусственного интеллекта и математического моделирования, профессор, член экспертной группы ЮНЕСКО по выработке рекомендаций этических принципов разработки и использования искусственного интеллекта Максим Фёдоров.

В своей лекции в рамках конкурса «Учитель будущего» Черниговская сказала про ИИ: "Пока еще он подчиняется человеку. ... Пока мы точно знаем, что машина, которая принимает за нас решения, не осознает, что делает. Но научный прогресс идет к тому, что искусственный интеллект может стать личностью. Тогда развитие ИИ выйдет из-под контроля".
А ряд
ряд специалистов уже начал разрабатывать нормативные правила регулирования "субъектности ИИ". То есть они уже априорно признают то, что нужно будет ИИ этой самой субъектностью наделить! Вместо того, чтобы жёстко и однозначно заявить, что за ИИ никогда не должен быть признан субъектом, а не объектом! Читая о такого рода разработках, невольно хочется вслед за Черниговской воскликнуть: "Да вы что там, все с ума сошли?!" Такого рода обсуждения и работы в данном направлении точно подтверждают название моего канала и поговорку "умная голова, да дураку досталась"!
И такие "умные дураки" есть и среди экспертов международной группы ЮНЕСКО по подготовке первых глобальных рекомендаций по этике искусственного интеллекта.
По словам Максима Фёдорова, в ходе дискуссий в этой группе четко выделилась группа государств, которая продвигает идею субъектности и пытается ввести такое понятие, как «квазисубъект общества». Т.е. они предлагают наделить роботов правами. Это опасная тенденция, которая может привести к своего рода технофашизму, затмевающему в своей бесчеловечности все чудовищное в истории нашей цивилизации. Ибо как только мы наделим ИИ правами , щепетильные вопросы человеческих меньшинств покажутся детским садом. За наделением ИИ правами на субъектность сразу последует мысль, что обижать ИИ нельзя, а надо воспитывать (это не шутка, подобные заявления уже делаются на конференциях высокого уровня по этому вопросу). Появится своеобразная «ювенальная юстиция» для ИИ, только она будет на порядок страшнее. Роботы будут защищать права роботов. К примеру, может прилететь дрон и испепелить вашу квартиру, защищая права другого дрона. Это будет технорасизм по отношению к людям со стороны нелюдей-роботов. Таким образом, человечество загонит себя в проигрышное положение без понимания, как из него выходить. К счастью, здравых людей в группе ООН по ИИ оказалось больше и им удалось убрать из повестки группы любые формулировки, касающиеся «квазичлена общества». И очень хорошо, что большинство стран выступают против этой идеи! Но будет ли так же и дальше?

Во всех дискуссиях об угрозе развития и использования ИИ есть два принципиальных момента, о которых тоже очень хорошо сказала Черниговская:
1. "
Мы же хотим, чтобы нам было легче жить - уголь самим не добывать, щи не варить, - кто бы возражал! Но искусственный интеллект нельзя допустить до ситуации, когда он будет принимать решения". "Хотелось бы знать, чем займется остальное человечество. Когда мне говорят, что в таком мире люди будут занимать креативным вещами такими, как музыка и живопись, то у меня это вызывает скепсис. Более того, это называется цивилизация праздности. Уже были цивилизации, которые рухнули из-за праздности, но не так глобально, как можем рухнуть мы".
2. "
Искусственный интеллект не способен сочувствовать, сострадать и любить. Гораздо хуже, что он сможет имитировать чувства, причём очень хорошо. И произойдёт это довольно быстро".

-4

И меня удивляет - искренне и глубоко! - что умные люди - учёные, бизнесмены, политики - идут по пути создания систем ИИ, которые должны будут ЗАМЕНИТЬ людей! И в этом смысле, опять же, "умные головы дуракам достались". Например, ЗАЧЕМ Джеффри Хинтон создал модель GLOM, которая, по его идее, должна позволить ИИ обрести интуицию? В этом смысле на Гайдаровском форуме в 2019 году Черниговская прямо поставила вопрос: Или МЫ, или искусственный интеллект.
И
на Гайдаровском форуме в 2020 году в диалоге с вице-президентом AACSB Тимоти Мэсконом она подтвердила свою позицию.
Об опасности использования ИИ в военных приложениях, слава Богу, начали уже говорить в мировых масштабах и даже стали рассматривать проблемы этики создания и использования ИИ в ООН. Однако, увы, пока что эти рассмотрения заходят в тупик, во многом из-за того, что прежде всего китайцам очень хочется получить преимущество в этой сфере. Но хочется верить, что если не разум, то хотя бы инстинкт самосохранения победит и разработки полностью автономных от влияния человека боевых систем будут остановлены. А лучше бы вообще остановить разработки систем, способных сами себе ставить задачи без участия людей - не только для военных, а для любых применений! Потому что уже показано, что попытки научить сам ИИ этичному поведению обречены на неудачу, а значит, ИИ может уничтожить людей даже не по злому умыслу, а просто исходя из некоей своей, нечеловеческой рациональности.

Слава Богу, события в США и ЕС, связанные с неэтичным поведением онлайн-платформ, их вторжением в частную жизнь людей, утечкой данных и массовой пропагандой непопулярных методов ведения политической борьбы, заставили правительства этих стран задуматься о том, что развитие инноваций становится не столь ценным фактором по сравнению с безопасностью и независимостью. Эти вопросы волнуют и частный бизнес, который всё чаще сталкивается с дискриминацией со стороны искусственного интеллекта (ИИ). И в наибольшей степени прогресс в поисках компромисса между тем, как не отдать в обмен на внешне привлекательные новые возможности контроль над своей жизнью неизвестно кому и одновременно не закрыть полностью разработки ИИ в полезных человеко-ориентированных применениях, достигнут, видимо, в Швейцарии.

А теперь о главном - а кто сказал, что создание сверхразума возможно только путём создания «сильного ИИ»? Почему практически отрицается путь повышения когнитивных способностей людей, создание биокибернетических систем, служащих подспорьем человеку в его мыслительных процессах и для создания систем коллективного разума? И почему стартапы типа
https://unanimous.ai/ не находят такой же поддержки, как проекты по созданию ИИ? А ведь создатель этого стартапа Луис Розенберг обозначил задачу предельно чётко и точно: "Искусственный интеллект становится все умнее и умнее, и этот процесс уже необратим. Поэтому нам тоже следует развивать свои умственные способности, чтобы всегда быть на шаг впереди". Слава Богу, такие системы всё-таки создаются - см., например, https://www.elibrary.ru/item.asp?id=37140602, https://www.yva.ai/ru/blog/vzaimodeistve-rabotnikov

Направление "апгрейда мозга" чаще всего вызывает возражения типа того, что даже обеспечив доступ мозга к существенно большему объему информации, мы столкнёмся с ограничением скорости ее обработки, которая зависит от скорости прохождения нервного импульса. Однако, как показал ряд исследований (
https://arxiv.org/abs/1708.08887, https://pubmed.ncbi.nlm.nih.gov/14962620/, https://pubmed.ncbi.nlm.nih.gov/27819310/), возможно, что информация в мозгу может передаваться с помощью света. А значит, в принципе могут быть созданы устройства, позволяющие ускорить передачу информации внутри мозга на несколько порядков, минуя медленные нервные импульсы.
А ещё есть разработка MIT, позволяющая использовать возможности
гипнагогии - полуосознанного состояния, когда мы уже начинаем видеть сон, но пока ещё не полностью засыпаем. Посмотреть в деталях их научные публикации можно тут и тут. Созданное в MIT устройство позволяет человеку решать задачи даже тогда, когда тело отдыхает. Что может быть полезно в условиях цейтнота, когда нужно и набраться сил, и попробовать рассмотреть проблемы под нестандартным углом. Ну и древние практики медитации и т.п. в сочетании с современными технологиями воздействия на мозг по типу биологической обратной связи тоже могут помочь увеличить возможности разума - например, каждого можно будет быстро научить визуализировать такое пространство признаков, которое обычно недоступно.
Отмечу, что только путь усиления возможностей человеческого разума позволит если и не отменить, то хотя бы притормозить уже идущий процесс оглупления человечества, который стремительно прогрессирует из-за того, что
Ефим Островский метко назвал «миграцией интеллекта с белка на песок». Он чётко отметил, что когда какая-то интеллектуальная функция "мигрирует с белка на песок", она тотчас же теряется человеком. На наших глазах возникает феномен Remote Access Intelligence - RAI, скрывающийся за бессодержательным, ложным понятием Artificial Intelligence (так называемый AI). RAI - по мере своего развития освобождает господствующие силы, кого бы мы под ними ни понимали, государство, капитал или личную волю, от производственной необходимости развивать белковый hardware, возделывать его ткань нейронных связей таким образом, чтобы он мог бы поддерживать сложный синтаксис и сложную семантику. То есть, проще говоря, человечество в массе своей стремительно глупеет! Что, в свою очередь, создаёт "петлю отрицательной обратной связи" - работодатели, видя, что им становится всё сложнее находить умных и способных справляться со всё усложняющимися задачами сотрудников, хотят заменить их на роботов (автоматизировать). И это пугает! Поэтому отдельного внимания заслуживает стимулирование работ по разгадке секрета "савантов" и создание устройств, которые позволили бы "отключать" имеющиеся в мозгу человека "ограничители таланта" (об их существовании писала ещё Н. Бехтерева) без физических повреждений мозга и психических отклонений, и повышая (возможно, инструментально) резервы адаптации мозга, о которых говорила Бехтерева как об основных эволюционных ограничителях проявления сверхвозможностей человеческого интеллекта.
Есть и ещё один аргумент в пользу усиления человеческого разума и создания "мыслительных сетей" для коллективного интеллекта - в отличие от разработок ИИ, усиление человеческих способностей позволит решать - А ГЛАВНОЕ, СТАВИТЬ! - задачи, которые, судя по всему, даже самая продвинутая система на основе глубинного машинного обучения и генетических алгоритмов решать не умеет - например, доказать теорему Ферма (или т.п.).
О чём ещё давно говорил в своём знаменитом мысленном эксперименте «Китайская комната» Дж. Сёрл.
Отмечу, что "мыслительные сети" могут быть и человеко-машинными. Ведь уже становятся реальностью (
в том числе стараниями и российских учёных) прямые интерфейсы "мозг-компьютер", и есть даже разработки интерфейсов "мозг-мозг", способных распределять когнитивную нагрузку между всеми членами группы, выполняющими вместе общую задачу в зависимости от их текущих когнитивных способностей, оцениваемых по их электрической активности мозга. Однако разработка такого рода систем требует полной прозрачности систем искусственного интеллекта по принципам, уже описанным в законе, который был принят в сентябре 2018 г. в Калифорнии*:
- во-первых, любая ИИ-система обязана как минимум явно анонсировать свою «искусственность» при любых контактах с человеком;
- во-вторых, кода ИИ-систем и протоколов их взаимодействий, особенно если это касается управления людьми или их коммуникациями, должны быть открытыми. Кстати, второй принцип положен в основу проекта распределенного ИИ
SingularityNET;
- а в-третьих, ИИ-системы должны быть доступны не только ограниченному числу корпораций, а конечным частным пользователям. Этот подход уже реализуют такие проекты, как
Aigo (США) и Aigents (Россия) для создания человеко-ориентированной среды коллективного гибридного интеллекта.

В любом случае, чтобы все эти и многие другие направления усиления возможностей человеческого разума и создания коллективного и гибридного интеллектов стали возможны, необходимо, чтобы эти исследования начали бы финансировать так же активно и масштабно, как и работы по созданию ИИ!




* Сходные принципы использовали при разработке этических норм развития ИИ и в России: Ассоциации лабораторий по развитию искусственного интеллекта (АЛРИИ) опубликовала этическую хартию, в которой прописана своеобразная "клятва Гиппократа" для тех, кто работает с этой технологией; свои принципы опубликовал Сбер (правда, лично я сомневаюсь, что господин Греф, рекомендовавший на роль руководителя российского центра разработок ИИ господина Шмидхубера, станет придерживаться этих правил, если появление нарушающего эти принципы ИИ позволит Сберу получить конкурентное преимущество) и Правительство России определило основные подходы к регулированию взаимоотношений в сфере искусственного интеллекта и робототехники (увы, не столь жёсткие, как в Калифорнии, и не столь чётко регулируемые, как в Швейцарии)