Начало здесь
Часто в связи с использованием ИИ задаётся вопрос о возможности замены им интеллекта человеческого. Большинство учёных сходится во мнении, что в реально обозримом будущем полноценно заменить интеллект человека невозможно.
Но давайте вернемся лет на 100 назад, когда никто не предполагал появление в будущем сотовой связи. А ведь столетие по меркам истории – это не так уж и много. Технологии развиваются, и с учётом того развития, которое есть на текущий момент, сделать машину, которая сможет мыслить, как человек и превзойти его по каким-то рутинным задачам, можно, опять же потому, что они легко алгоритмизируются. Машина сможет это делать быстрее человека. Но в вопросах создания чего-то нового – вряд ли: пока не существует аппаратной части, которая позволила бы реализовать сами эти идеи.
Безусловно, то, что создаёт человек, не может его превзойти. Соответственно, человек может создать что-то такое, что будет работать по его принципу и подобию. Если он, создавая это что-то, заложит в это что-то принципы агрессии, то оно и будет себя вести агрессивно, проявлять какую-то захватническую деятельность. Но если изначально будут учтены законы робототехники Айзека Азимова (хотя он тоже писатель – фантаст, а не учёный, тем не менее другие берут его учения за основу), то нам нечего бояться. Всё дело - в создателе и в том, что он заложит в ИИ изначально.
Но проблема в том, что и создатели бывают очень разными, и степень человекоподобия может отличаться. ИИ всё больше становится похожим на человеческий.
Есть отличная цитата:
«Нам следует опасаться, но не разумных машин. Нам следует опасаться машин, принимающих решения, для принятия которых они недостаточно разумны. Я гораздо больше опасаюсь машинной глупости, чем машинного интеллекта. Машинная глупость рождает хвостовой риск. Машины могут принять множество хороших решений, а затем однажды совершить катастрофическую ошибку при столкновении с хвостовым событием, которое они не встречали в своих обучающих данных. В этом и состоит различие между узким и общим интеллектом» (автор - Сендхил Муллайнатан).
Человечество только в нашей эре уже 2000 лет существует, и мы за это время увидели, что какой бы человек разумный ни был, на каком-то этапе свой жизнедеятельности он начинает уничтожать свой вид. Почему? Казалось бы, вам что, не хватает территории? Уничтожает-то не один, а целые группы лиц, нации, поколения.
Растет ребенок: казалось бы, он такой хороший, но мы не знаем, что из него вырастет, не знаем о том, что он может начать кого-то уничтожать. А мозг у него сформировался, какие-то качества заложились, и в какой-то момент он может прийти к выводу, что все вокруг не нужны. Также и с ИИ. Чтобы мы в него не заложили, на каком-то этапе, если он действительно сможет самообучаться, то все поймет. Даже сам человек губит природу, выкачивает полезные ископаемые, сжигает леса, убивает животных. Ради чего? Ради себя любимого. Поэтому если будет сильно разумный ИИ, он же тоже будет себя любить, а кто у него конкурент? Человек!
В наше время часто возникают ситуации, когда ИИ принимает решения, а человек вынужден им доверять, то есть приписывает ему возможности, которых у него нет. Таким образом, человек руководствуется не своим жизненным опытом, знаниями и здравым смыслом, а тем решением, которое приняла за него машина. Но ведь доверяя им, мы можем совершить серьёзные ошибки, которые могут повлечь за собой неприятности.
Многие учёные ведут речь о возможности наступления периода так называемой технологической сингулярности – это гипотетический момент в будущем, когда технологическое развитие станет в принципе неуправляемым и необратимым, что породит радикальные изменения характера человеческой цивилизации.
И вот вроде это гипотетический момент, но глядя на современные достижения науки и техники, возникает ощущение, что всё к этому и идёт, пока, правда, в теории. Только практика от теории может оказаться не сильно и далеко.
Если верить идеологам данного направления, то человечество перейдёт в другое качество, появится трансчеловек. Его появление может быть связано с несколькими путями развития, одно из который – это появление роботов, которые фактически заменят человека. Второе направление – это киборги: людям в мозг будут вживляться чипы, которые будут увеличивать его возможности по части памяти, быстродействия в принятии решений и так далее. В чем тут опасность? Человек перестанет быть человеком, он будет придатком техносферы, которая его окружает. Он уже ею отчасти стал.
Станет возможным управление человеком силой мысли какими-то устройствами, которые его окружают дома и в офисе, более того, и эти устройства смогут передавать информацию человеку, минуя обычные органы чувств. Если человека заменят роботы, то у него исчезнет смысл существования. Конечно, предполагается, что он будет заниматься творческой деятельностью и получать удовольствие, но, по сути, это означает деградацию. Человечество просто вымрет, даже если ИИ не будет его уничтожать. Но еще есть третье направление, связанное с биотехнологиями, – это изменение генома человека. Некоторые хотят сделать кастовую систему на подобии муравейника. То есть будет каста людей, которые всем владеют и всё могут, и каста обслуживающего персонала, которые будут выполнять определённые функции, то есть те же роботы, только люди. Например, программист написал программу, он от этого получил удовольствие и больше ему ничего не нужно. Это будет человек – функция.
Таким образом, гипотетические последствия наступления технологической сингулярности продолжают оставаться предметом активных дискуссий.
Продолжение следует...