Найти тему
Pro-life

Смогут ли люди контролировать цифровой суперинтеллект

Оглавление

Искусственный интеллект развивается бешеными темпами. Благодаря нейронным сетям и адаптивным алгоритмам, системы ИИ уже управляют автономными машинами, диагностируют болезни, расшифровывают сложные структуры протеинов.

Искусственный интеллект уже сегодня освоил велоспорт, покер и стратегические игры – отчасти он превосходит человеческие достижения в этих сферах. Вместе с тем решение машины кое-где выглядят менее объективными, чем можно было бы ожидать.

Искусственный интеллект Источник: Comfreak с сайта Pixabay
Искусственный интеллект Источник: Comfreak с сайта Pixabay

Когда же появится такой ИИ, который превзойдет человека?

Подключенная к интернету система будет иметь доступ ко всей информации человечества, она сможет заменить все имеющиеся программы и контролировать все машины, подключенные к сети.

Или же она будет лечить рак, введет свободу во всем мире и поможет избежать климатической катастрофы? Или наоборот – погубит человечество и заберет себе Землю?

«Суперразумная машина, контролирующая весь мир, звучит как научная фантастика, – сказал соорганизатор исследования Мануэль Цебриан из Института исследований образования Макса Планка. – Но уже сегодня существуют машины, которые самостоятельно выполняют сложные задачи – и при этом люди, которые их программируют, не осознают в полной мере, как они этому научились.

Следовательно, возникает вопрос, когда машины станут неконтролируемыми».

Дискуссии на эту тему связывают также с вопросом автономного оружия, которое сможет убивать людей лишь на основании собственного решения или начинать войну еще до того, как люди вмешаются.

Что говорят ученые?

Можно ли суперинтеллект контролировать, теоретически проверили ученые во главе с ведущим автором Мануэлем Альфонсека (Manuel Alfonseca) из Автономного университета Мадрида. Существует два основных подхода к контролю цифрового суперинтелекта.

Первый предусматривает целевое ограничение ресурсов машины – например, отсоединение ее от интернета и других приборов, лишив возможности контактировать с внешним миром. Но вследствие этого существенно пострадают возможности суперразумной машины. Она не сможет решать проблемы человечества.

Суперразум Источник: sujin soman с сайта Pixabay
Суперразум Источник: sujin soman с сайта Pixabay

Другая опция состоит в том, чтобы мотивировать ИИ преследовать лишь те цели, которые отвечают интересам человека – в том числе программируя машинам этические правила.

Известный пример таких правил три — роботозакона Айзека Азимова. Они гласят:

  1. робот не может навредить человеку;
  2. робот обязан повиноваться человеку, кроме тех случаев, когда это противоречит правилу 1;
  3. работы должны защищаться, кроме тех случаев, когда это противоречит первому и второму правилам.

Но проблема вот в чем: для некоторых алгоритмов эти правила годятся – но не для адаптивного суперразумного ИИ, способного к самообучению. «Ведь такой суперинтеллект может мобилизовать различные ресурсы, чтобы достичь цели, недосягаемые для человека, то есть и неконтролируемые для него», – объяснили ученые.

Проблему практически проиллюстрировали Альфонсека и его команда: они разработали теоретический алгоритм, задачей которого было проверить, не навредит ли суперинтеллект человеку, и если да, то при каких условиях.

Для этого алгоритм должен был сначала понять поведение ИИ и в пробном цикле выявить, какие его действия могут быть вредными. Если да, другая программа останавливала искусственный интеллект.

Нейронные сети Источник: Gerd Altmann с сайта Pixabay
Нейронные сети Источник: Gerd Altmann с сайта Pixabay

Но на практике этот принцип наткнулся на свои пределы: «Если разбить проблему на простые правила информатики, получится, что алгоритм, предписывающий ИИ не уничтожать мир, может нечаянно остановить собственные процессы, – пояснил коллега Цебриана Ияд Рахван (Iyad Rahwan). – Поэтому этот алгоритм, по сути, бесполезный».

Нежелательные последствия, когда программируешь суперразумную машину спасать мир: "По подсчетам ИИ, кратчайший путь для минимализации несчастий – истребление человечества".

На основе своих расчетов ученые пришли к выводу, что невозможно запрограммировать алгоритм таким образом, чтобы он распознавал возможность ИИ навредить миру и при этом работал. «Идея использования одной системы ИИ для содержания другой на уровне нулевого риска ограничена математикой», – объяснили ученые.

А еще мы, вероятно, не сразу поймем, что определенная машина стала суперразумной. Ведь если искусственный интеллект превосходит человеческий, то невозможно будет выяснить это на основе появляющихся данных.