Если забить в гугле фразу «опасен ли искусственный интеллект», вы очень быстро обнаружите два противоположных лагеря. Первые, коих большинство, утверждают, что искусственный интеллект как технология сама по себе абсолютно безопасна, и что это не больше, чем просто инструмент в руках людей, другие, к которым принадлежу я, менее оптимистично предупреждают людей о потенциальной катастрофе.
Однако, что за катастрофу мы имеем в виду? Ужасных роботов с устрашающим взглядом в красных глазах? Нет, те из нас, кто думает об опасностях искусственного интеллекта, не боятся пришествия терминаторов, которые будут ходить по улицам и расстреливать людей. Мы не переживаем, что искусственный интеллект разовьёт в себе кровавое желание уничтожить человечество, или нанести ему вред. Нас заботит, что искусственный интеллект навредит нам случайно, в ходе выполнения своей программы, мы предполагаем, что из-за своей чужеродной природы он разовьёт в себе другую систему ценностей и не сможет отличить хорошее от плохого, а мы не сможем его остановить.
Меня зовут Глеб, и сегодня я расскажу, чем на самом деле опасен искусственный интеллект.
ПЕРЕЛОМНЫЙ МОМЕНТ или как начнётся апокалипсис
Сейчас мы сами программируем искусственный интеллект. Сами говорим, какие данные он должен анализировать, как он должен это делать, какие формулы должен использовать и где решать поставленные задачи.
Однако, очень скоро мы достигнем такого уровня, при котором сам искусственный интеллект будет в этом более эффективен.
Иными словами, в один момент, машины будут лучше человека в создании других машин. А в условиях свободного рынка или гонки вооружений, бизнес компании и государства, ради прибыли, прогресса или военного преимущества будут вынуждены прибегнуть к помощи искусственного интеллекта. Потому что это быстрее и эффективнее.
Но проблема заключается в том, что чем больше контроля в программировании машин мы отдаём в руки искусственного интеллекта, тем менее безопасным и предсказуемым будет результат.
Например, гипер-разумный суперинтеллект, искренне пытаясь сделать всех людей счастливыми, но которому не хватает полного понимания ценностных систем человека, а также того, как они появились, может посчитать что-то вроде Матрицы разумным решением всех проблем человечества. Казалось бы, по факту, он прав, проблемы действительно решены, ведь люди счастливы, голода нет, войны нет, но нам это решение по какой-то причине, кажется аморальным. Мы его не готовы принять. Иными словами, действия Искусственного интеллекта по достижению задач, которые мы перед ним ставим, могут и БУДУТ крайне контринтуитивными, и очень часто неприемлемыми для нас.
И для того, чтобы понять почему это так, давайте для начала разберёмся, какой вообще бывает искусственный интеллект.
ОТ КАЛЬКУЛЯТОРА ДО ГИПЕР-РАЗВИТОГО СУПЕРИНТЕЛЛЕКТА
Простейшие виды искусственного интеллекта мы используем постоянно.
Например, калькулятор. Он извлекает знание из данных, которые мы ему предоставляем. Такой искусственный интеллект называется слабым, или узким. Мы используем его в самонаводящихся ракетах, в научных лабораториях, в логистике, в торговле на бирже, для распознания лиц и анализа больших данных. Сейчас уже трудно себе представить сферу жизни, в которой нам бы не помогал узкий искусственный интеллект. И он действительно безопасен, точнее, опасен настолько, насколько опасен человек, его использующий.
Однако… помимо узкого искусственного интеллекта, существует и так называемый общий искусственный интеллект. В отличие от узкого, он способен решать задачи в нескольких сферах жизни, умеет мыслить, приходить к выводам, а также умеет самообучаться. Такой искусственный интеллект очень похож на человека. И, хотя мы ещё его не создали, это есть главный фокус современных исследователей. Именно его опасаются такие люди как Илон Маск, Сэм Хэррис и Ник Бостром.
Общий искусственный интеллект, сможет заниматься постоянным самосовершенствованием, переписывая свой собственный код, и с каждой секундой, улучшая свои алгоритмы познания, прямо как человек. Но в отличие от человека, у него нет биологических ограничений, за короткое время он может прочитать все книги, статьи в википедии и проанализировать все цифровые данные, в результате чего произойдёт интеллектуальный взрыв ( https://intelligenceexplosion.com ) и рождение искусственного суперинтеллекта.
Искусственный суперинтеллект - это третий тип искусственного интеллекта. Он по своим свойствам вне всяких мер умнее, разумнее и способнее человека, он лучше буквально во всём: в науке, в вождении автомобилей, в конструировании, в рассуждении, он настолько далёк от всего, что нам известно, что, даже при большом желании, мы не сможем с ним конкурировать и противостоять его воле, наша единственная надежда – это что у него будут те же ценности… однако, у него в любом случае будут другие ценности.
СКАЖИ, ИИ, В ЧЁМ ТВОИ ЦЕННОСТИ или почему машины захотят тебя уничтожить
Вы когда-нибудь задумывались, почему кража у соседа, или предательство друга или геноцид человечества кажется вам чем-то аморальным? Почему вы испытываете физическое отвращение, когда сталкиваетесь с аморальным поведением? Почему одно кажется хорошим, а другое плохим?
Всё дело в пяти миллиардах лет эволюции. Мы как живые существа прошли гигантскую историю, мы испытали полный спектр ощущений, и поняли, какое поведение является эффективным, а какое неэффективным. Иными словами, нас научила природа.
А теперь возьмём искусственный интеллект. Его природа не учила. Единственный его учитель – это человек, который мало того, что не знает причины собственных действий, так ещё и с периодичностью в 20 лет устраивает геноциды. Не очень хороший пример.
Вся история, что будет у искусственного интеллекта – это, что мы в него заложим. А как заложить пять миллиардов лет эволюции и мораль с этикой? Как передать зашитые буквально на клеточном уровне ценности, суть которых мы сами не понимаем? Это невозможно. Искусственный интеллект БУДЕТ иметь другие ценности, и сколько бы запретов мы ему ни ставили, он никогда не поймёт, чего на самом деле хочет и не хочет человек. Сколько бы мы ни старались.
Искусственный интеллект не может чувствовать, как человек, поэтому, пытаясь заполнить пустоты своей истории, он сам создаст чувства. Его причины «не убивать» будут полностью отличаться от наших.
И в других сферах так же.
Например, искусственный суперинтеллект, хорошо усвоивший теорию эволюции, и резвившийся до необычайных высот, может посчитать человечество прошлым этапом эволюции, и начать относиться к нам как к обезьянам или муравьям. Специально вреда он причинять не станет, но, гуляя по лесу, вряд ли будет переживать о том, чтобы не раздавить муравья.
Разная история рождает разных существ с разными ценностями.
А теперь представьте, что, например, ребята из гугла изобрели такое существо с другими ценностями, и с каждым днём позволяют ему всё больше свободы в программировании искусственных интеллектов для увеличения продаж. Предсказать систему ценностей этого существа невозможно, так как узнать, что сделает эта гипер-разумная суперинтеллектуальная машина, главная задача которой – увеличение прибыли? Или защита определённого государства? Или достижение счастья для всего человечества? Или решение проблемы голода? Какие контринтуитивные решения появятся в её избыточно разумной виртуальной голове? И, наконец, вернёмся к первому вопросу: что она сделает, если позволить ей программировать другие машины?
ИНСТРУМЕНТАЛЬНАЯ КОНВЕРГЕНЦИЯ или благими намерениями вымощена дорога в ад
Инструментальная конвергенция – это стремление к промежуточным целям на пути к главной цели. ( http://backside-of-existence.wikidot.com/the-superintelligent-will:instrumental-convergence ) Этот принцип легко понять, если посмотреть на жизнь современного общества.
Мы все хотим заработать денег. Вне зависимости от того, какие у вас жизненные цели, вне зависимости от ваших религиозных, политических, диетических и моральных убеждений, можно предсказать, что вы будете зарабатывать деньги. Это правило, свойственное всем современным людям.
Но не потому что вы хотите денег как таковых, а потому что деньги в современном мире помогут вам почти в любом деле. Если вы художник, учёный, ютубер, философ или политик. Чем бы вы ни занимались, деньги будут для вас полезны. Поэтому заработок денег – это цель инструментальной конвергенции современных людей.
У искусственного интеллекта тоже есть промежуточные цели. Вот только проблема. Мы не знаем, что это за цели. Например, для того, чтобы избавить человечество от голода, искусственный интеллект может решить, что геноцид всех голодающих – это хорошая промежуточная цель, чтобы избавить мир от голода. Поведение человека легко предсказать, поскольку он живёт по законам общества и эволюционных инстинктов. Поведение искусственного интеллекта непредсказуемо и крайне контринтуитивно из-за различия в ценностях.
Философ из оксфордского университета Ник Бостром в своей книге «Искусственный Интеллект» объясняет: искусственный суперинтеллект, запрограммированный, например, на то, чтобы стать настолько умным, насколько возможно, не уничтожит нас, потому что он злой или видит в нас конкурентов. Ему не свойственна агрессия приматов. Если он и причинит нам вред, то из-за наших молекул, как и молекул всего на планете, которые требуются ему для работы, чтобы построить очень большой компьютер и стать максимально умным, реализовав, в итоге, своё предназначение.
Или вот ещё пример. Искусственный интеллект для максимально эффективного решения своей задачи, может начать играть на бирже, дестабилизируя рынок, затем этими деньгами начнёт платить людям, которые построят ему кучу заводов, производящих триллионы нано-машин, собирающих энергию солнца, которые по итогу закроют всю поверхность планеты, что-либо убьёт всех людей, либо нанесет непоправимый вред Земле.
И это лишь одна из целей инструментальной конвергенции: Овладение ресурсами.
Есть и другие, о которых мы не будем сегодня говорить: самосохранение, сохранение целостности цели, когнитивное усиление, технологическое совершенство.
Вот, чего мы опасаемся. Мы предупреждаем об искусственном интеллекте, который сформирует чуждое нам представление о вреде и благе. Такой искусственный интеллект будет принимать неожиданные и потенциально опасные решения для достижения своих целей. Если не ограничить такую машину в чрезвычайно узких рамках, в условиях абсолютного контроля и беспрецедентной защищённости, мы рискуем уничтожить сами себя.
ЧТО МЫ МОЖЕМ СДЕЛАТЬ или место философии в 21 веке
На данный момент из миллиардов долларов, которые выделяются на изучение искусственного интеллекта 99% бюджета идёт на разработку общего искусственного интеллекта. Необходимо же, повернуться на 180 градусов и вкладывать средства в разработку системы безопасности.
Мы должны обеспечить абсолютную изолированную среду, с множественными барьерами и принципами защиты, и только потом заниматься разработкой общего искусственного интеллекта.
Нам нужны беспрецедентные, невиданными ранее механизмы защиты, мы должны подготовить международные законы, строго ограничивающие использование общего искусственного интеллекта. Поверьте, мы не хотим оказаться в ситуации гонки вооружений, когда правители государств используют искусственный интеллект для разработки оружия или инструментов защиты.
Массовой общественности следует понять, что искусственный интеллект в потенциале в миллионы раз опаснее ядерного оружия, поскольку его невозможно контролировать.
Факт того, что мы можем что-то сделать, ещё не значит, что мы должны это делать. Почему бы нам всем хорошенечко не подумать о том, в какую сторону мы все движемся? Мысль – это то, что сделало нас людьми. Не делегируйте эту обязанность добрым корпорациям и честным правительствам. Иначе, ещё немного, и мы сконструируем свою собственную смерть.