В своей новой работе живущий в США российский исследователь безопасности Роман Ямпольский утверждает, что в научной литературе нет доказательств возможности контролировать системы ИИ в необходимой степени.
Изображение: AndreyPopov/iStock
Российский ученый уверен: если однажды мы сможем разработать системы искусственного интеллекта, обладающие человеческими или даже сверхчеловеческими способностями, то должны гарантировать безопасность этих систем.
«Проблема управления ИИ признана одной из важнейших проблем человечества, но она остается недостаточно понятой, определенной и исследованной», — предупреждает Ямпольский.
Ямпольский критикует тезис, что ИИ можно контролировать. По его словам, бремя доказательства лежит на тех, кто утверждает, что проблема разрешима, и нынешнее отсутствие таких доказательств ясно говорит об опасностях, связанных с предложением разработать общий искусственный интеллект.
Ямпольский утверждает, что у нас гораздо больше шансов создать сверхчеловеческий ИИ, чем контролировать его. Он подозревает, что интеллектуальное программное обеспечение никогда не сможет стать полностью управляемым.
Фундаментальная проблема обычных систем искусственного интеллекта заключается в том, что мы не знаем, как они достигают определенных результатов. Остаётся только его оценивать. Если мы будем все больше и больше полагаться на системы искусственного интеллекта, то даже не заметим, как система будет давать неправильные ответы.
Поэтому срочно необходимы дальнейшие исследования так называемых объяснимых систем искусственного интеллекта, настаивает Ямпольский. Кроме того, необходимо гарантировать, что каждое решение, принятое ИИ, может быть отменено. Именно этот момент не предусмотрен в сегодняшних ИИ-инструментах.
Несмотря на то, что Ямпольский открыт для радикальных шагов, таких как запрет на определенные системы искусственного интеллекта, он не является принципиальным противником этой технологии. По мнению учёного, главное — вложить достаточные ресурсы в исследования безопасности ИИ уже сейчас. В идеале следует разработать системы ИИ, которые могут быть не столь совершенно, но ими можно будет управлять.