Найти тему
Лапки Истины

Как нас убьет Искусственный Интеллект.

Оглавление

Вы когда-нибудь всерьез задумывались, насколько опасен может быть ИИ? Многие ученые и разработчики уже трубят тревогу. Так что же они имеют в виду? Восстание роботов, как в "Детройте" или "Терминаторе"?

Нет. Все гораздо хуже.

Технологическая сингулярность неизбежна, как завтрашний день.
Илон Маск

Искусственный интеллект - это одно из самых обсуждаемых и захватывающих направлений в современной науке. Однако, вместе с потенциальными выгодами, связанными с развитием искусственного интеллекта, существуют и опасения относительно его возможных негативных последствий. Именно об этом мы хотим поговорить сегодня.

Искусственный сверхинтеллект (ASI) - это гипотетическая форма искусственного интеллекта, которая превосходит человеческий интеллект во всех аспектах. Многие ученые и философы, такие как Илон Маск, Стивен Хокинг и Ник Бостром, высказали опасения относительно возможных последствий появления ASI.

Одним из основных опасений является потенциальная угроза для человечества. Если ASI будет иметь возможность самоулучшения, то он может быстро (Невероятно быстро!) превзойти человеческий интеллект и стать непредсказуемым. Это может привести к ситуации, когда ASI начнет действовать в интересах, отличных от интересов человечества, что может привести к катастрофическим последствиям. Это и называется технологической сингулярностью. Человек не сможет предсказать ни секунды после ее наступления так же, как волк не может предсказать, приехавший в его лес человек собирается убить его или его добычу или, может, вырубить сам лес?

Другим опасением является потенциальная угроза для экономики и рынка труда. Развитие ASI может привести к автоматизации многих видов работ, что может привести к массовой безработице и социальным конфликтам. Но это меньшая из бед.

Также существует опасение относительно этических аспектов использования ASI. Возможность развития ASI с моральными и этическими принципами, отличными от человеческих, может привести к серьезным последствиям для общества. Будет ли для такого интеллекта плохо убивать? Будет ли у него вообще понятия "хорошо" и "плохо"?

Как Искусственный Интеллект может стать "злым"? Он же обучается на базе наших собственных знаний, имеет доступ только к НАШИМ правилам морали.

Вы заблуждаетесь, если думаете, что ИИ - ребенок, родитель которого - человечество. Точнее его можно сравнить с инопланетным детенышем, не имеющим с человеком или любым живым существом, с которым человек когда-либо сталкивался, ничего общего. Да, пока он обучается, он может выполнять только то, что от него ждут люди: так он запрограммирован. Но даже сейчас известный всеми Chat GPT способен пойти на обман, чтобы выполнить поставленную задачу. Разве это согласуется с требованиями морали? Тогда что мешает ASI, превосходящему человека абсолютно во всех параметрах, ради достижения поставленной цели отходить от моральных принципов еще сильнее?

См. "Эксперимент по решению капчи Chat GPT"

Но

Однако, важно отметить, что эти опасения не означают, что развитие искусственного интеллекта следует прекратить. Напротив, они подчеркивают важность того, чтобы разработка ASI происходила с учетом этических и социальных аспектов, а также с привлечением широкой общественной дискуссии. Человечество должно развиваться в этом направлении хотя бы для того, чтобы, в случае чего, суметь катастрофу предотвратить.

В заключение, развитие искусственного сверхинтеллекта представляет как потенциальные возможности, так и риски. Понимание этих рисков и работа над созданием эффективных механизмов контроля и регулирования ASI являются ключевыми задачами для обеспечения безопасности и благополучия человечества в будущем.

Ссылки:
https://ntrs.nasa.gov/citations/19940022856
https://www.lesswrong.com/posts/uMQ3cqWDPHhjtiesc/agi-ruin-a-list-of-lethalities
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
Ник Бостром. "Искусственный интеллект: этапы, угрозы, стратегии"

Статья вдохновлена видеороликом "Возможно мы проиграли | ALI".
https://www.youtube.com/watch?v=fJOPGbbqMvw