Найти в Дзене
NEXUS info

В чем опасность ИИ? Узнайте, почему люди боятся искусственного интеллекта

Оглавление

Взгляд на опасности искусственного интеллекта и потенциальные риски, которые могут представлять собой развивающиеся технологии

Многие эксперты опасаются, что быстрое развитие искусственного интеллекта может иметь непредвиденные катастрофические последствия для человечества.

Машинное обучение призвано помочь людям в их повседневной жизни и предоставить миру открытый доступ к информации. Однако нерегулируемый характер ИИ может привести к пагубным последствиям для его пользователей и мира в целом. Прочтите ниже, чтобы узнать о рисках ИИ.

  1. Почему люди так боятся ИИ?
  2. Опасен ли искусственный интеллект?
  3. В каких ситуациях ИИ может быть опасен для человека?
  4. Каковы реальные риски, связанные с ИИ?
  5. Каковы гипотетические риски ИИ?
  6. Каковы риски конфиденциальности, связанные с ИИ?
  7. Почему вам следует проводить собственные исследования в области ИИ?

1. Почему люди так боятся ИИ?

Появление искусственного интеллекта привело к возникновению чувства неуверенности, страха и ненависти к технологии, которую большинство людей не до конца понимают. ИИ может автоматизировать задачи, которые раньше могли выполнять только люди, например, написание эссе, организацию мероприятия и изучение другого языка. Однако эксперты обеспокоены тем, что эра нерегулируемых систем ИИ может создать проблемы для человечества, поскольку оно продолжает развиваться. Некоторые боятся ИИ из-за неизвестности. В настоящее время быстрый рост технологий искусственного интеллекта заставляет людей беспокоиться о том, что в конечном итоге они смогут их перехитрить.

« ИИ, если вы просто усовершенствуете его без ограничений, станет умнее человека. И по умолчанию он будет намного мощнее человека», — сказал Fox News Digital Коннор Лихи, генеральный директор Conjecture.

«Они смогут обманывать людей, они смогут манипулировать ими. Они смогут разрабатывать новые технологии, гораздо более мощное новое оружие, новые системы, которые мы не можем понять и не можем контролировать».

Лихи также описал, что может произойти, если ИИ станет слишком могущественным, и какую опасность он может представлять, если будет безразличен к человечеству.

«Если такие системы существуют, это похоже на присутствие на нашей планете инопланетного вида. И если этот инопланетный вид враждебен нам или даже просто безразличен к нам, у нас большие проблемы».

Некоторые разработки в области ИИ встревожили людей, особенно из-за их неточностей и предвзятости. Системы искусственного интеллекта могут последовательно и быстро формулировать сложные идеи благодаря большим наборам данных и информации. Однако информация, используемая ИИ для генерации ответов, обычно неверна из-за неспособности ИИ различать достоверные данные. Использование этих систем искусственного интеллекта в открытом доступе может еще больше способствовать распространению этой дезинформации в научных статьях, статьях и эссе.

Кроме того, алгоритмы, составляющие оперативные возможности ИИ, создаются людьми, которые естественным образом сотрудничают со своими политическими и социальными предубеждениями.

Если человечество станет полагаться на ИИ в поиске информации, то эти системы могут направить исследования таким образом, что это принесет пользу одной стороне по сравнению с другой. Некоторые программы чата с искусственным интеллектом, такие как ChatGPT , столкнулись с обвинениями в том, что они действуют с либеральным уклоном, отказываясь генерировать информацию по таким темам, как скандал с ноутбуком Хантера Байдена.

2. Опасен ли искусственный интеллект?

Искусственный интеллект может быть полезен человеку, в том числе в плане оптимизации простых и сложных повседневных задач, а также в качестве готового помощника 24 часа в сутки, 7 дней в неделю. Однако у ИИ есть потенциал выйти из-под контроля.

«Существует множество опасностей, которые уже являются проблемой», — сказал Лихи. «Эти системы уже ненадежны. Их уже можно использовать для генерации спама и вводящей в заблуждение информации. Их можно использовать для ловли рыбы. Подобные вещи уже возможны», - продолжил он.

Одна из опасностей ИИ заключается в том, что корпорации или правительства могут использовать его в качестве оружия для ограничения прав общественности. Например, ИИ имеет возможность использовать данные технологии распознавания лиц для отслеживания местонахождения отдельных лиц и семей. Правительство Китая регулярно использует эту технологию для нападения на протестующих и тех, кто выступает против политики режима.

Более того, ИИ может помочь финансовой отрасли, консультируя инвесторов по рыночным решениям. Компании используют алгоритмы искусственного интеллекта, чтобы создавать модели, которые прогнозируют будущую волатильность рынка и определяют, когда покупать или продавать акции. Однако алгоритмы не используют тот же контекст, который используют люди при принятии рыночных решений, и не понимают хрупкости повседневной экономики.

Компании, использующие искусственный интеллект для фильтрации кандидатов в процессе найма, могут привести к дискриминации.
Компании, использующие искусственный интеллект для фильтрации кандидатов в процессе найма, могут привести к дискриминации.

ИИ может совершить тысячи сделок в течение дня, чтобы увеличить прибыль, но может способствовать следующему краху рынка, отпугивая инвесторов. Финансовым учреждениям необходимо глубоко понимать алгоритмы этих программ, чтобы обеспечить наличие систем безопасности, которые не позволят ИИ перепродавать акции.

Религиозные и политические лидеры также отмечают, что быстрое развитие технологий машинного обучения может привести к деградации морали и заставить человечество полностью полагаться на искусственный интеллект. Такие инструменты, как ChatGPT от OpenAI, могут использоваться студентами колледжей для подделки эссе, тем самым облегчая академическое мошенничество для миллионов людей. Между тем, рабочие места, которые когда-то давали людям цель и самореализацию , а также средства к существованию , могут быть стерты в одночасье, поскольку ИИ продолжает ускоряться в общественной жизни.

3. В каких ситуациях ИИ может быть опасен для человека?

Искусственный интеллект может привести к вторжению в частную жизнь, социальным манипуляциям и экономической неопределенности. Но еще один аспект, который следует учитывать, заключается в том, как быстрое повседневное использование ИИ может привести к дискриминации и социально-экономической борьбе для миллионов людей. Технология машинного обучения собирает огромное количество данных о пользователях, включая информацию, которую финансовые учреждения и государственные учреждения могут использовать против вас.

Типичным примером является компания по страхованию автомобилей, повышающая ваши страховые взносы в зависимости от того, сколько раз программа искусственного интеллекта отслеживала, как вы используете свой телефон во время вождения. В сфере трудоустройства компании могут использовать программы найма искусственного интеллекта, чтобы отфильтровать качества, которые они хотят видеть в кандидатах. Это может исключить цветных людей и людей с меньшими возможностями. Самый опасный элемент, который следует учитывать при использовании искусственного интеллекта, заключается в том, что эти программы не принимают решения на основе того же эмоционального или социального контекста , что и люди. Хотя искусственный интеллект может использоваться и создаваться с благими намерениями, он может привести к непредвиденным опасностям дискриминации, нарушения конфиденциальности и безудержной политической предвзятости.

Может быть сложно указать примеры того, когда ИИ может представлять проблему для людей, поскольку предсказать прогресс практически невозможно.

«Есть много причин, по которым человек может быть опасен. У ИИ нет эмоций. Итак, у вас есть полностью социопатическая система, которая умнее всех людей, которая никогда не спит, никогда не отдыхает, может работать все время и чрезвычайно хороша в взлома и кодирования», — сказал Лихи. «Что произойдет, если эти системы попадут в руки опасных людей, которые действительно хотят зла ​​для мира?»

За последние несколько лет использование и популярность ИИ быстро выросли во всем мире.
За последние несколько лет использование и популярность ИИ быстро выросли во всем мире.

Самый опасный элемент, который следует учитывать при использовании искусственного интеллекта, заключается в том, что эти программы не принимают решения на основе того же эмоционального или социального контекста , что и люди. Хотя искусственный интеллект может использоваться и создаваться с благими намерениями, он может привести к непредвиденным опасностям дискриминации, нарушения конфиденциальности и безудержной политической предвзятости.

Может быть сложно указать примеры того, когда ИИ может представлять проблему для людей, поскольку предсказать прогресс практически невозможно.

«Есть много причин, по которым человек может быть опасен. У ИИ нет эмоций. Итак, у вас есть полностью социопатическая система, которая умнее всех людей, которая никогда не спит, никогда не отдыхает, может работать все время и чрезвычайно хороша в взлома и кодирования», — сказал Лихи. «Что произойдет, если эти системы попадут в руки опасных людей, которые действительно хотят зла ​​для мира?»

4. Каковы реальные риски, связанные с ИИ?

Искусственный интеллект представляет собой несколько реальных рисков для людей всех классов в Соединенных Штатах, включая экономическую неопределенность и проблемы с законом.

Например, в феврале 2023 года Getty Images, одна из крупнейших в мире онлайн-фотокомпаний, подала иск против Stability AI, популярного генератора машинного обучения. Искусственный интеллект практически не регулируется федеральным правительством, однако иск Гетти потенциально может установить правовую основу для машинного обучения через судебную систему. Таким образом, существуют юридические риски для генераторов ИИ, поддерживаемых многомиллиардными компаниями.

Другие риски, связанные с ИИ, включают работу с неисправной навигационной системой ИИ, которая ведет вас в неправильном направлении и заставляет вас опаздывать на встречу или важное событие. Беспилотные автомобили работают на основе сложной технологии машинного обучения и используются автомобильными компаниями, такими как Tesla. Эти автомобили с искусственным интеллектом в прошлом выходили из строя и вызывали аварии, которые привели к серьезным травмам и смерти. Технология, какой мы ее знаем, всегда имела риски и выгоды; это не новая идея.

«Каждая когда-либо изобретенная технология, или почти каждая, была обоюдоострым мечом. Они дают нам власть, они дают нам больше контроля над нашей окружающей средой, которую можно использовать как во благо, так и во зло. также причиняют вред», — сказал Лихи.

По мере развития технологий искусственного интеллекта появляется больше возможностей для негативных последствий.

«Если бы вы могли заставить 1000 Эйнштейнов работать над любым проектом за 10 долларов в час, что было бы возможно? Было бы безумием то, что могло бы стать возможным в будущем», — сказал Лихи. «Есть риски, если мы вообще сможем контролировать эти системы».

Если люди будут контролировать системы искусственного интеллекта, неправильное использование технологий может стать настоящей угрозой. ИИ также способен изменить повседневные функции современного типичного общества.

«Как нам быть с этим другим обществом, в котором нет рабочих мест? Например, почему должны быть рабочие места? Знаете, весь труд автоматизирован, все мышление автоматизировано. Что теперь?» — спросил Лихи. «У меня нет ответа на этот вопрос. Может быть, мы все просто расслабимся и отлично проведем время. Или, может быть, мы скажем: «Нет, мы этого не хотим, на самом деле мы хотим, чтобы у нас была работа или труд». или что-то в этом роде. Я не знаю. У меня нет ответа на этот вопрос».

Лихи чувствует, что в будущем мир в свое время будет выглядеть совсем иначе, чем сегодня.

«Единственный прогноз, который я могу сделать, это то, что я не ожидаю, что ситуация замедлится. Я ожидаю, что дела пойдут еще быстрее», - сказал он.

5. Каковы гипотетические риски ИИ?

Экономический ущерб, вызванный ускоренным развитием искусственного интеллекта, может навсегда изменить жизнь миллионов семей с низкими и высокими доходами. Например, Goldman Sachs в марте 2023 года опубликовал отчет, в котором прогнозировалось, что ИИ потенциально может ликвидировать 300 миллионов человек по всему миру, включая 19% существующих рабочих мест в Соединенных Штатах.

6. Каковы риски конфиденциальности, связанные с ИИ?

Искусственный интеллект широко распространен в жизни миллионов людей благодаря множеству различных технологий, включая такие продукты, как Siri от Apple, Alexa от Amazon и Cortana от Microsoft. Эти помощники искусственного интеллекта регулярно используют сбор личных данных для эффективной работы.

Лихи отметил ранние разработки в области искусственного интеллекта, которые представляют угрозу, особенно те, которые созданы для кибероружия и хакерских атак. Правительства или частные корпорации могут использовать технологию искусственного интеллекта для эксплуатации, расследования или наблюдения за частными лицами.

«В настоящее время существует множество ограничений на системы искусственного интеллекта, которые вы обучаете на большом количестве данных. И правда в том, что многие люди на самом деле не знают, что находится в тех наборах данных, на которых они обучаются», — объяснил Лихи. «Это невероятно огромные массивы информации из Интернета, книг, бумаг и всякого рода материалов. И большая часть из них включает в себя информацию, позволяющую идентифицировать личность, или информацию, которой не следует делиться без необходимости. И эти системы действительно подводят. эта информация."

7. Почему вам следует провести собственное исследование ИИ?

Искусственный интеллект — спорная тема, по которой у экспертов существуют разные мнения. Ученые, работающие с данными, проводили исследования в области искусственного интеллекта в течение ряда лет, больше, чем можно было бы подумать, и индивидуально пришли к разным выводам о преимуществах, недостатках и рисках инновации.

По этой причине важно проводить собственные исследования как для понимания ИИ, так и для принятия собственных решений относительно его рисков и преимуществ.

Один из способов понять уровень предвзятости, который действительно присутствует в ИИ, — это провести собственное тестирование методом проб и ошибок с помощью чат-ботов. Задавайте вопросы или обсуждайте темы, в которых вы хорошо разбираетесь, и отличайте правду от предвзятости в ответах, которые выдает бот. Хотя чат-боты являются последней и наиболее захватывающей революцией в области искусственного интеллекта для общественности, следует помнить, что на этом она, скорее всего, не закончится. Осознание того, что нас ждут передовые инновации, подготовит вас к дальнейшим исследованиям в будущем.

Помимо понимания предвзятости в инновациях в области ИИ, понимание прошлого, настоящего и будущего технологии также поможет вам принять решение доверять ИИ или использовать его. Вы можете читать и смотреть множество книг, блогов, подкастов, статей, видео и т. д. Обучение искусственному интеллекту осуществляется практически во всех формах: от базового до углубленного обучения.

Эта технология никуда не денется. Скорее, все как раз наоборот. Вот почему так важно быть в курсе новых технологий, которые вступают в игру.