Найти тему
Brainy Works

SkyNet неизбежен - сверхразумный ИИ будет управлять людьми!

Идея об искусственном интеллекте, свергающем человечество, обсуждалась на протяжении многих десятилетий , и ученые только что вынесли свой вердикт о том, сможем ли мы управлять высокоуровневым компьютерным супер-интеллектом. Ответ? Почти наверняка нет.

Загвоздка в том, что для управления сверхразумом, выходящим далеко за пределы человеческого понимания, потребуется симуляция этого сверхразума, которую мы можем проанализировать. Но если мы не в состоянии это понять, невозможно создать такую ​​симуляцию.

По мнению авторов новой статьи, нельзя установить такие правила, как «не причинять вреда людям», если мы не понимаем, какие сценарии будет предлагать ИИ. Когда компьютерная система работает на уровне, превышающем возможности наших программистов, мы больше не можем устанавливать ограничения.

«Супер-интеллект представляет собой принципиально другую проблему, чем те, которые обычно изучаются под лозунгом« этики роботов», - пишут исследователи.

«Это связано с тем, что суперинтеллект многогранен и, следовательно, потенциально способен мобилизовать разнообразные ресурсы для достижения целей, которые потенциально непонятны для людей, не говоря уже о возможности их контролировать».

Часть рассуждений команды исходит из проблемы остановки, выдвинутой Аланом Тьюрингом в 1936 году. Проблема заключается в знании того, придет ли компьютерная программа к выводу и ответу (поэтому она останавится) или просто зациклируется, пытаясь его найти.

Тьюринг доказал, что хотя мы можем знать, что для некоторых конкретных программ, логически невозможно найти способ, который позволил бы нам узнать это для каждой потенциальной программы, которая когда-либо могла быть написана. Это возвращает нас к ИИ, который будучи сверхразумным мог бы реально удерживать в своей памяти сразу все возможные компьютерные программы.

Любая программа, написанная, например, для того, чтобы остановить такой ИИ, причиняющий вред людям и разрушающий мир, может прийти к выводу (и остановиться) или нет - для нас математически невозможно быть абсолютно уверенным в любом случае, а это означает, что его невозможно сдержать.

«По сути, это делает алгоритм сдерживания непригодным для использования», - говорит компьютерный ученый Ияд Рахван из Института развития человека Макса Планка в Германии.

Альтернатива обучению ИИ некоторой этике и запрету разрушать мир - в чем, по мнению исследователей, не может быть абсолютно уверен ни один алгоритм - является ограничение возможностей сверхразума. Например, он может быть отключен от части Интернета или от определенных сетей.

Новое исследование также отвергает эту идею, предполагая, что это ограничит возможности искусственного интеллекта - аргумент гласит, что если мы не собираемся использовать его для решения проблем, выходящих за рамки человеческих возможностей, то зачем вообще его создавать?

Если мы собираемся развивать искусственный интеллект, мы можем даже не знать, когда появится сверхразум, находящийся вне нашего контроля, такова его непостижимость. Это означает, что нам нужно начать задавать несколько серьезных вопросов о том, в каком направлении мы движемся.

«Сверхразумная машина, управляющая миром, звучит как научная фантастика», - говорит ученый-компьютерщик Мануэль Себриан из Института развития человека Макса Планка. «Но уже есть машины, которые самостоятельно выполняют определенные важные задачи, а программисты полностью не понимают, как они этому научились».

«Поэтому возникает вопрос, может ли это в какой-то момент стать неконтролируемым и опасным для человечества».