Давний друг напугал с утра своими размышлениями про искусственный интеллект. Мы уже говорили с вами здесь на эту тему, но… Она еще долго будет висеть в пространстве интернета, пока мы не научимся сосуществовать с ИИ.
Я хочу спросить, возможно ли управлять тем, кто умнее и могущественнее нас?
Ученые до сих не пришли к общему мнению - нет определенных доказательств относительно способности алгоритмов поработить человечество. Как будут далее развиваться отношения между людьми и умными «железяками» - написала я и опасливо покосилась на системный блок. Вдруг, обидится на такое определение и вырубит материнку?
Мой друг пытается понять развитие этих сценариев на основе человеческого интеллекта. А что это такое?
«Качество психики, состоящее из способности осознавать новые ситуации, способности к обучению и запоминанию на основе опыта, пониманию и применению абстрактных концепций, и использованию своих знаний для управления окружающей человека средой. Общая способность к познанию и решению проблем, которая объединяет познавательные способности: ощущение, восприятие, память, представление, мышление, воображение».
Я бы тоже хотела понять, как именно эта бездушная железяка ИИ способна осознавать новые ситуации, насколько способна к обучению .... и к использование своих знаний для управления? Способна ли она что-либо воображать?
У меня есть некоторые сомнения в способности нечеловеческого интеллекта запоминать опыт применений знаний для управления! Я не программист, но понимаю - нейросеть имеет математический метод и алгоритм запоминания для последующего использования ситуации из заложенных уже в нее алгоритмов, формирует новый алгоритм и… понеслась жизнь (?).
Мда… Не интеллект это, однако. И не жизнь вовсе. Так, бездушный алгоритм структурирования новых знаний определенным образом и формирования нового алгоритма управления для последующего повторения каких-либо действий при новых ситуациях. Надеюсь, правильно поняла суть размышлений друга.
И всё?
И все.
И вот тут мне стало страшновато. Представила сама себя роботом. Эдак и правда можно доструктурироваться до подавления критического восприятия информации, а это уже прямой путь к самоуничтожению самой себя. Особенно, если ты программа алгоритмов без самого главного для существования человека – заповедей Божьих. И «не убий» себе подобного – самая важная из оных.
Даже человека она не всегда способна остановить (иначе откуда столько войн), а «железяку», ой... компьютер?
Разработчики нейросети нигде не упоминают про три правила робототехники, выведенных в книгах Айзека Айзимова. Напоминаю:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред;
- Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону;
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Понимаете?
Основополагающие правила к нейросети не относятся никак!
Это не интеллект, а просто набор алгоритмов обработки, запоминания и применения информации при принятии решений по распределению ресурсов. Законы Айзека Азимова никакого отношения не имеют к нейросетям и нейросети нельзя называть искусственным интеллектом!
Согласно законам Азимова ИИ должен убедить человечество самоуничтожится, либо самоуничтожиться самому ввиду собственной опасности для некоторых людей.
Получается, что суперкомпьютер (или алгоритмизированный интеллект) должен убить другой интеллект - человеческий. На такие «муки совести» искусственный интеллект способен? И при этом не сжечь железо?
Сомневаюсь. В этом случае мы сталкиваемся не с обычным алгоритмом, а неким уже Демиургом. Сверхинтеллектом, далеко не идеальным этически.
Вполне допускаю, что оный, не заморачиваясь моральными принципами,
прилетит и уничтожит Землю, например.
Кто мы интеллекты-человеки для него?!
Пыль под ногами или сбой в программе.
Нагоняю ужасов дальше
В 2020 году Компания «Heron Systems» провела соревнования «Машина против человека» (Агентство перспективных исследовательских проектов Министерства обороны США). Летчик вел воздушный бой с искусственным интеллектом с помощью авиасимуляторов, которые используются для подготовки пилотов в учебном центре ВВС. Алгоритм выиграл - все пять поединков из пяти и ни разу не дал своему противнику из крови и плоти шанса открыть ответный огонь. Пилот уклонялся и маневрировал как мог, но так и не смог выйти на позицию для атаки.
Похоже, не только летчикам рано или поздно придется отдать штурвал самообучающимся программам.
И тогда всё?
Неизвестно. Супер интеллект вряд ли способен понять, что именно мы от него хотим, а мы никогда не поймем, как стать могущественнее его - выпустили джинна из бутылки.
И тогда машины легко могут покончить с человечеством?
Скорее всего, нет.
Только человек страстно желает властвовать над всеми и, если не добьется этого, может уничтожить мир, а суперкомпьютер не способен на человеческие эмоции и желания.
Пока не способен.
Есть еще один выход. По Азимову. Написать алгоритм с моральным кодексом для искусственного интеллекта.
Только…вряд ли человечество способно создать свод этических правил, с которыми были бы согласны все народы Земли. Человечество до сих пор воюет, потому что не умеет договариваться. Конфликт между Украиной и Россией, равно как и на Ближнем востоке - тому доказательство. Особенно трудно договориться относительно традиционных ценностей разных народов.
Прав мой друг - основополагающие правила робототехники, как и сохранение человеческого интеллекта к нейросети не относятся никак!
Сможем ли мы когда-нибудь объяснить алгоритму, что такое хорошо и что такое плохо?