История Фредерика Брауна, написанная в 50-ые годы, на которую я случайно наткнулся в интернете захватило моё внимание. Несколько абзацев, под названием «Ответ», об объединении компьютеров вселенной в искусственный разум одной кибернетической машины, объединяющей знания всех миров - привели меня (спасибо интернету) к недавно опубликованным результатам исследования по сдерживанию искусственного интеллекта в нанесении возможного вреда миру (человечеству).
Мы амбициозны в своих творениях и редко можем спрогнозировать опасность, в стремлении сделать нашу жизнь проще, удобнее и безопаснее. Сегодня, компьютер, часть нашей социальной среды, рабочий инструмент способный управлять беспилотными автомобилями хирургическими роботами, вооружением. Не за горами и то время, когда люди и антропоморфные машины будут существовать и взаимодействовать бок-о-бок.
Так смогут ли машины стать разумными, выйти из-под контроля и учинить расправу над человечеством?
Андроиды – сегодняшние роботы вряд ли способны осуществить апокалиптический сценарий, они находятся в начале эволюционного пути и далеки от идеала сложного ИИ (искусственного интеллекта) будущего. Их умения предопределены и контролируются их создателями, значит на лицо полная зависимость от человека. Авторитетные специалисты по машинному обучению и интеллекту, в своих прогнозах, также, исключают манипуляции людьми и какие-либо разрушительные последствия с участием сильного ИИ.
Но не всё так однозначно! Команда Центра людей и машин Института Макса Планка, исследуя возможность контроля (сдерживания) сверхразумного ИИ , чтобы он не угрожал человечеству, смоделировала сценарии его ограниченного доступа к интернету и использования алгоритмов сдерживания по принципу законов робототехники Айзека Азимова
Основываясь на аналитике проработанных сценариев и теоретических расчётах Ияд Рахван, директор Центра, исключил возможность построение алгоритма контроля (сдерживания) сверхразумного ИИ в нынешней парадигме вычислений:
«Если мы посмотрим на проблему с точки зрения основ информатики, окажется, что алгоритм, который должен остановить ИИ от разрушительных действий, может заблокировать свои же операции. Когда это произойдет, вы даже не распознаете, продолжает ли алгоритм анализировать угрозу или остановился при сдерживании вредоносного ИИ. По сути, это делает такой алгоритм непригодным для использования»
Кроме того , руководитель всё той же исследовательской группы, того же Института, Мануэль Себриан, отметил факт самостоятельного машинного обучения:
«Сверхразумная машина, управляющая миром, звучит как научная фантастика. Но уже есть машины, которые самостоятельно выполняют важные задачи, а программисты не до конца понимают, как они этому научились. Поэтому возникает вопрос: может ли этот процесс в какой-то момент стать неконтролируемым и опасным для человечества?»
Что же всё это значит? А значит это, что пока, алгоритмы сдерживания не эффективны, а потенциал самостоятельного обучения машины – реальность!
Думаю, хорошо, что пока процесс саморазвития ИИ продвигается не так быстро, есть возможность найти и расставить ограничительные флажки.
Смотрите видео на данную тему с канала https://zen.yandex.ru/media/thespaceway
Пишите комментарии, что Вы думаете по этому поводу :)