Найти тему
Northsibe

ИИ.

И в чём же, всё-таки, состоит основная проблема создания сильного искусственного интеллекта? «Конечно же, в отсутствии необходимого аппаратного обеспечения достаточной мощности» – скажет кто-то. И будет, конечно же, прав. Ведь если на данный момент попытаться создать хоть чуть-чуть похожий на мозг человека компьютер с триллионами нервных клеток, каждую из которых можно сравнить с отдельным компьютером со своими функциями и свойствами, то мы получим «робомозг» размером с дом. Но если представить, что прогресс всё-таки дошел до момента, когда создание подобной машины лишь вопрос денег и свободного времени, то можно поразмышлять и об алгоритме работы такой машины.

Основное отличие слабого ИИ от сильного заключается, конечно же, в наличии у последнего сознания, т.е. способности осознавать себя в данный момент времени в окружающем его пространстве. Ведь каким бы не был сложным и много вариативным слабый ИИ, он никогда, например, не проявит инициативу, если не описать эту функцию в программном коде. Просто потому, что ему это не нужно будет, как отдельно взятой личности с собственным эго. А что такое сознание и как его можно программно воплотить? Если отбросить всю метафизику и мистику, которая веками окружает этот термин, и попробовать представить его как программу, то мы получим что-то похожее на чат, в котором бот общается сам с собой. Я имею в виду тот самый внутренний диалог, с помощью которого мы можем задавать сами себе вопросы и сами же на них отвечать, делая выводы, на основе которых задавать себе всё новые вопросы и так по кругу. Ведь мы думаем постоянно, а остановка этого процесса – это основа буддизма, шаманизма и ещё множества духовных учений и практик, описанных, например, Кастанедой.

Так вот, допустим, мы написали подобного бота, который имеет две функции – задавать себе вопрос и самому же отвечать на него. А так же забили в базу данных неимоверное количество вопросов и ответов, при этом прописав функцию самообучения (это при условии, что аппаратная поддержка позволяет нам использовать нейронные связи, которые будут в процессе обучения увязывать вопросы с ответами и придавать логику диалогу). Но от этого наш ИИ не станет «живым». Это происходит по двум причинам: первая – необходимо дать возможность нашему компьютеру получать информацию извне. А конкретней — из окружающего мира. Но это так же скорее вопрос механики (имитация зрения, слуха, и т.д.). Вторая – по прежнему отсутствующая мотивация к развитию, и вообще каких бы то ни было инстинктов. Нас интересует вторая.

И вот здесь начинается самое интересное. Ведь помимо внутреннего диалога, у человека есть ещё набор различных чувств, таких как любовь, страх, ненависть, верность, злость и так далее, которые собственно и делают нас людьми. И как же можно заставить машину любить или ненавидеть? Вопрос, конечно, сложный, им уже не раз задавались писатели научной фантастики. Но если попробовать разобраться, то всё не так уж и сложно. Если подумать, то у всех этих чувств есть одна основа. Разберем алгоритм человеческих чувств на примере «любви». Уже довольно давно из уст ученых мы узнали, что любовь — это химия, т.е. набор химических процессов, происходящих в организме человека, но это всё та же механика.

А вот программная основа любви, по моему мнению, заключается, как ни странно — в страхе потери. Ведь если мы разберем на составляющие и уберём из программы «любовь» функцию «страх потерять», то увидим, что от неё ничего не осталась и программа больше не работает.

Дальше идём по цепочке. Именно здесь проявляется человеческий эгоизм, а точнее основная функция, которую описал Айзек Азимов — «не навреди себе» или инстинкт самосохранения. Испытывая тот же страх потери, мы не столько боимся потерять человека, сколько боимся испытать при этом боль (навредить себе). Так же с другими чувствами. Чувство страха – это основа, которая автоматически вытекает из теоретической возможности испытать боль. И именно наличие чувства боли есть самым основным условием при создании сильного искусственного интеллекта.

Ещё раз. Если нам удастся как-то сымитировать у нашей машины чувство боли, то она автоматически приобретёт чувство самосохранения и будет всячески пытаться не испытать эту боль, т.е. станет мотивированной. Тут же появится страх, в том числе и страх смерти, как критичная форма самосохранения, а так же самое главное – желание жить и развиваться, как вытекающее последствие и противоположность страха смерти. Надеюсь, всем понятна моя логика. Но это тоже ещё не всё. Скорее это только начало, а всё что я написал выше — было только предисловие.

Итак, мы пришли к выводу, что основной функцией сильного ИИ должна быть именно функция боли. Не страх и не чувство самосохранения, а именно возможность испытать боль, так как страх и чувство самосохранения – это вытекающие последствия.

Даже если я где-то ошибся, и чувство боли всё таки не является основой человеческого сознания, то, думаю, что рано или поздно при создании сильного ИИ кто-то всё таки столкнется с данным вопросом, поэтому так или иначе считаю тему актуальной. Тем более, что когда я начал искать информацию о программном воплощении инстинкта самосохранения, то практически ничего существенного не нашел.

И вот здесь тупик: как сделать компьютеру больно? Если пнуть ногой системный блок, то он вряд ли начнёт орать на вас матом. Здесь уже никак не обойтись без механики работы мозга и придется углубиться в нейробиологию. А так же коснуться вопросов болевого порога, который, как мы знаем, у всех на разном уровне, и который особо одаренные люди способны вообще отключать по надобности и прогуляться, например, по углям, или поспать на гвоздях. С программной точки зрения это очень интересная тема. Но дабы логически отделять одно от другого и в конец не запутаться, хотелось бы раскрыть данный вопрос, а так же множество других, в следующих статьях. И со временем дойти и до аппаратного устройства возможного будущего сильного искусственного интеллекта.

Владимир Маханьков.

Источник: https://geektimes.ru/post/236807/