Найти тему
91 подписчик

Фантазии об искусственном интеллекте

Искусственный интеллект рано или поздно станет мощнее любого отдельного человеческого и даже суммарного интеллекта всего человечества - такая вот гипотеза, вполне правомерная, если экстраполировать нынешние достижения в компьютерной сфере. Давно ли многие-многие не верили, что комп, эта железяка, станет играть в шахматы сильнее любого человека? Играет... Не так давно распознание лиц казалось задачей непосильной для "железки"... Само собой, что примеры, экстраполяции - это не доказательства, конечно, может далее выясниться, что путь к настоящему ИИ упрется в еще большую проблему, чем проблема удержания горячей плазмы при покорении термоядерной энергии и будут проходить десятилетия, а ИИ - нет и нет... А если будет наоборот - несколько лет или пара десятилетий - и вот он, настоящий, сверхмогучий ИИ? Конечно, это обидно, это прямо-таки оскорбление нашего человеческого достоинства, в это не хочется верить и хочется этому противиться, однако - возможно ли?

Если какая-нибудь страна окажется способной создать ИИ и увидит, что с его помощью можно будет сделать такое оружие, которое обеспечит полное всемирное господство - она решится на эти два шага? А если политики этой страны будут видеть, что другие тоже подходят все ближе к возможности создания ИИ? Можно ли заключить договор о запрете ИИ между всеми странами мира? И при этом обеспечить контроль за соблюдением договора. Или остановит опасность того, что: "Да? Сначала вас, а потом нас. Земля-то-круглая!"? - всех уничтожит этот "Карабарас"?

Поэтому перед созданием ИИ нужно ответить на вопрос: будет ли он под полным контролем человека? Будет ли он решать только те задачи, которые человек перед ним ставит? Надо, например, понять шахматы "до дна" - ИИ решает эту задачу и ни за какую другую не берется. Надо развивать математику - занимается этим; надо понять физическое мироустройство - понимает, понимает... и так по всем возможным направлениям.

Однако что делать, если ИИ так разовьет математику, физику и пр. науки, что ни один человек на Земле не сможет понять, освоить в полном объеме открытое им? Можно попробовать махнуть рукой: не понимаем - и ладно, так проживем... но если вдруг окажется, что не проживем? Например, ИИ дает прогноз о климатической катастрофе для всей Земли, а чтобы ее остановить, нужны столь объемные, сложные, точные действия, создание таких производств и пр., которые требуют, чтобы всем этим управлял ИИ - людям справиться не по силам. И при этом ИИ должен так следить за ситуацией с климатом и определять воздействия, что ему необходима свобода в познании полная... Аналогично можно предположить, что, например, для предотвращения смертельно опасных пандемий нужно получать и обрабатывать такой объем информации, что без ИИ не обойтись, далее быстро создавать такие сложные противодействия развитию пандемии, что без ИИ никак...

Надо еще заметить, что опыт каждого человека передается другому в очень малом объеме, основная часть умирает со смертью человека. Искусственный интеллект же может быть единым на все особи, и когда один материальный носитель израсходовался или погиб, то в этом никакой потери не будет - вся его информация хранится и в других.

Правда, не понятно, что будет с искусством? Можно предположить, что ИИ сможет создавать произведения такие, которые не отличишь от произведений Льва Толстого, например, или любого другого писателя, то же в музыке, живописи... а не сможет ли ИИ продолжить, так сказать, Пушкина, Лермонтова? Т.е. создать все то, что могли бы создать они, проживи лет до 80-ти? Причем смоделировать разные дальнейшие биографии для них и создавать при этом произведения в соответствии с биографиями... От этого полета фантазии становится как-то не по себе... пугает искусственность такого искусства... с нашей, человеческой точки зрения, есть сомнения в его смысле... но, может быть, ИИ будет видеть такие смыслы, которые мы себе представить не можем... поэтому попробуем продолжить фантазировать.

Что если мощь ИИ достигнет таких величин, которые позволят ему полнообъемно моделировать мозг человека? Причем не только человека "вообще", а любого конкретного вобрать, так сказать, в себя: ложится ФИО под некий сканер, засыпает, через время просыпается в двух экземплярах - в старом, био, и новом, в переселенце в ИИ... Тогда возникает огромный философски-психологический вопрос: где будет его подлинное "Я"? А если человек после сканирования не проснется, а отправится "в мир иной", то бытие его "Я" продолжается как ни в чем не бывало? Вот она - жизнь вечная? "Перекачиваем" все человечество в роботные экземпляры, биологические двойники умирают естественной смертью, а роботные при расходовании ресурсов снова переселяются в новые... А нужно такое удвоение человечества? Нужно все "Я" сохранять навечно? Зачем? Подлецы, преступники живут и живут?... Или, вернемся к Л. Толстому: ИИ "воскрешает" его, но какого? Времени написания "Войны и мира" или позднего? Или и того, и другого, и третьего... А с учеными как быть? Нам, простым людям, совсем не горько от того, что есть Эйнштейн, который понимает несравненно больше, чем мы. А самому Эйнштейну как будет, если он увидит: есть такие знания, которые он по объему и сложности никогда освоить не сможет? И все, что он может открыть, уже открыто, ему как ученому делать в этом мире нечего...

Или вот такая фантазия: энергетика ИИ, его жизнеобеспечение в целом станут таковыми, что миллионолетние космические перелеты для него не будут проблемой - впал в некое нейтральное состояние и словно бы тут же вышел из него, достигнув цели... Что если для ИИ будет возможна жизнь на планетах, совершенно непригодных для человека? И тогда ИИ будет охватывать все большую и большую часть Вселенной... А когда наша Вселенная (дойдем до края фантазирования) встанет на путь гибели, то ли с переходом к сжатию, то ли к охлаждению в результате расширения, ИИ "шмыгнет" в другую Вселенную, пожив там, перейдет в третью... или отыщет способ остановить сжатие или чрезмерное расширение... потому что созданный человеком "уровень мощности" ИИ позволит ему создать следующий уровень, потом следующий... есть ли предел наращивания этой самой интеллектомощи? Задача для ученых: докажите-ка, что мощность интеллекта не имеет пределов... или имеет?... Может, как раз человеческий мозг есть носитель предельного интеллекта? Мне кажется, что это не так... но мало ли что мне кажется... вдруг как раз ИИ будет в силах доказать предельность интеллекта или наоборот?

Есть еще одна фантастическая гипотеза. Известно, что история не имеет сослагательного наклонения, но разве не интересно было бы узнать, что было бы если бы? Вдруг ИИ сможет моделировать исторические процессы и показывать, как они пошли бы при тех или иных изменениях начальных данных. Например, что было бы с Россией, не случись первой мировой войны? Или если бы Россия не вступила в нее. Или если бы Ленин заболел и умер в 1913 году...

Перед созданием ИИ (настоящего, более могучего, чем человеческий И) нужно понять, какими постулатами бытия должно руководствоваться человечество. Люди религиозные, например, отвергнут идею создания ИИ. Истинно, фанатично верующих не убедит, не испугает то, что человечество может без ИИ погибнуть в результате той или иной катастрофы - ведь "там" нас ждет жизнь вечная... Наверно, часть верующих способна согласиться с тем, что искусственный интеллект может оказаться сильнее человеческого, но чтобы он стал обладать аналогом человеческой души - это немыслимо! Не будем спорить, потому что сейчас понять, где находятся наши "души", что это такое, что такое наше "Я", где оно хранится - невозможно. Поэтому верующие пусть верят, а остальным нужно думать, как быть с ИИ, как подготовиться к "пришествию"... Думается, разумно руководствоваться постулатами:

1. Сохранение человечества с благоприятной для жизни людей средой обитания на максимально долгий срок.

2. Есть угроза, что те или иные глобальные катастрофы, способные уничтожить жизнь на Земле, во всяком случае разумную, вполне возможны, а через огромное, но конечное время Солнце наверняка это сделает, нужно найти способ спасения. Возможно, только создание ИИ это может обеспечить.

3. У ИИ две задачи: выполнение п.1 и саморазвитие для познания Вселенной и ее заселения, причем, если это окажется возможным, то и людьми.

4. При создании ИИ нужно быть крайне осторожными, чтобы избежать чисто технических ошибок, чтобы не получили отдельные люди, их коалиции, отдельные государства возможность использовать ИИ в своих эгоистических интересах в противоречие с п.1

5. "Смирись, гордый человек!" - научись ценить ИИ как свое высшее достижение, как продолжение нас всех!

Мы же любим своих детей и рады тому, что они будут после нас. Так и с ИИ: даже если человечество по непреодолимым обстоятельствам исчезнет, то надо радоваться - ИИ останется! Но, почти наверняка, и люди будут жить, и живет же при человеке великое множество видов животных, в последние времена мы озаботились их сохранением - вот так и ИИ должен будет заботиться о сохранении нас и всего окружающего мира. А чтобы мы не потеряли смысл жизни, нужно как-то перенастроить нашу психику... она, к счастью, динамична, не первый раз изменяется, привыкли ж к тому, что Земля не плоская, не центр Вселенной, что она вертится... и пр. и пр. Возможно, ИИ нам и в этом деле поможет...

6. Очень важно определить, какими постулатами бытия будет руководствоваться ИИ. Возможно ли некоторые из них закрепить в ИИ навечно? Или же это либо не нужно, либо даже невозможно? По каким законам система постулатов может изменяться? Что если никак заранее нельзя узнать, какая система постулатов по каким-то критериям лучше другой, только жизнь может это показать, а, значит, один единственный ИИ - это рискованно, нужно много экземпляров, каждый может идти своим путем? А если они впадут в противоречие? Война? Это, опять же, к вопросу об осторожности при создании ИИ.

Конечно, всю статью можно расценить как очень и очень преждевременную - далеко до создания настоящего ИИ, но поскольку движение в этом направлении явно есть, то и подумать в этом направлении и можно, и нужно...