Сегодня искусственный интеллект (ИИ), который когда-то считался живым в человеческом воображении, вполне реален. Искусственный интеллект в настоящее время является отличным инструментом для развития многих отраслей. Он произвел революцию в технологиях во всех отраслях промышленности и решают многие проблемы, с которыми сталкивается человечество. Однако ИИ все еще находится на начальных этапах своего развития, и он также может причинить большой вред, если им не управлять должным образом. Есть много областей, в которых искусственный интеллект может представлять опасность для людей, и было бы лучше, если бы эти опасности обсуждались и выявлялись сейчас, чтобы они не возникали в будущем.
ИИ опасен или нет?
Прежде чем двигаться вперед, у меня к вам вопрос, расскажите, пожалуйста, об одной такой вещи, которая для вас никак не опасна? Я уверен, что вам придется хорошенько подумать, но даже тогда вы не сможете найти хотя бы один такой предмет похожий на ИИ.
То же самое и в случае с ИИ. ИИ полезен и имеет большой потенциал, с помощью которого роботы становятся умнее. Но этот факт также верен, что ИИ опасен для человечества.
Более того, когда ИИ был введен в производство в то время, несколько человек были уверены, что в будущем ИИ может стать одним из рисков для человечества. Итак, давайте посмотрим на риски, которые есть у ИИ, и о которых должен знать каждый.
1. Автономное оружие
ИИ, может быть запрограммирован на то, что может быть опасно, как в случае с автономным оружием, запрограммированным на убийство. Возможно, даже можно ожидать, что гонка ядерных вооружений будет заменена глобальной автономной гонкой вооружений.
Помимо беспокойства о том, что автономное оружие может обрести «собственный разум», более неизбежной является опасность, которую автономное оружие может иметь для человека или государства, которые не ценят человеческую жизнь. После создания их, скорее всего, будет сложно разобрать или уничтожить их.
2. Социальный контроль
ИИ нацелен на нашу конфиденциальность совершенно новым способом, с помощью которого мы даже не можем представить, что наша конфиденциальность находится в опасности. С помощью социальных сетей ИИ может узнать о нас несколько вещей: наши симпатии, интересы и многое другое. Благодаря этому на нас нацелены маркетинговые стратегии, и мы вынуждены покупать то, что нам нравится, с помощью этих маркетинговых и психологических стратегий.
3. Несоответствие между нашими целями и машинами
В основном, люди ценят в машинах с искусственным интеллектом, их эффективность и результативность. Но если нам самим не ясны цели, которые мы ставим для машин ИИ, это может быть опасно, если машина не запрограммирована теми же целями, что и мы. Например, команда «Доставить меня в аэропорт как можно быстрее» может иметь ужасные последствия. Машина с ИИ может довольно эффективно выполнить свою задачу - доставить вас в аэропорт как можно быстрее и сделает это буквально, но если в алгоритме ИИ не указаны, соблюдения правил дорожного, и о том что надо ценить человеческую жизнь, то в результате ИИ оставит после себя дорожно-транспортные происшествия.
4. Высший Интеллект
Как мы уже упоминали выше, ИИ обладает огромным потенциалом, который можно использовать для нескольких хороших вещей, но, будучи продуктом с более высоким потенциалом, становится трудно контролировать его. Возможно, вы слышали об этом, что однажды Facebook создал две AI-программы, которые начали общаться друг с другом, поскольку вышли из-под контроля.
5. Дискриминация
Поскольку машины могут собирать, отслеживать и анализировать столько информации о вас, эти машины могут использовать эту информацию против вас. Нетрудно представить, что страховая компания сообщит вам, что вы не застрахованы, исходя из того, сколько раз вас ловили на камеру, когда вы очень много раз разговаривали по телефону. Работодатель может отказать в предложении о работе на основании вашего «социального кредитного рейтинга».
Любая мощная технология может быть использована не по назначению. Сегодня искусственный интеллект используется для многих серьезных целей, в том числе для того, чтобы помочь нам поставить более точные медицинские диагнозы, найти новые способы лечения рака и сделать наши машины более безопасными. К сожалению, по мере расширения наших возможностей ИИ мы также увидим, что он используется в опасных или в злонамеренных целях. Поскольку технология ИИ развивается так быстро, для нас жизненно важно начать обсуждать лучшие пути для ИИ, чтобы развиваться позитивно, минимизирую его разрушительный потенциал.
6. Неправильные дела
Если кто-то получит доступ к программному алгоритму ИИ и если он запрограммирует его на что-то неправильное, никто не сможет его контролировать и сложно будет остановить. Хотя мы говорим, что ИИ очень потенциальный, полезный и знающий, мы забываем, что он программируемый и может использоваться для любой работы.
Заключение
Как обсуждалось в последнем пункте, ИИ может быть полезным, но это программируемый продукт, который можно модифицировать для выполнения любой работы, неважно хорошей или плохой. На этом мы подошли к концу этой статьи, в которой мы рассмотрели 6 главных рисков ИИ, которые должен знать каждый.