Яан Таллинн, один из инженеров-основателей Skype и приложения для обмена файлами Kazaa, не в восторге от быстрого распространения искусственного интеллекта. Он обеспокоен тем, что неконтролируемый искусственный интеллект может привести к плачевным последствиям, в том числе описанным в его собственном короткометражном фильме 2017 года «Slaughterbots» (Убийственные роботы).
В интервью телепередаче The Bottom Line канала Aljazeera Яан Таллинн поделился своими опасениями по поводу бурного развития и внедрения искусственного интеллекта. Таллинн является основателем Кембриджского центра изучения экзистенциального риска и института будущего жизни, который ранее в этом году призвал приостановить «масштабные эксперименты с искусственным интеллектом». (Письмо Института оказалось во многом символическим; разработка ИИ не остановилась, несмотря на поддержку таких громких имен, как Стив Возняк и Илон Маск.) Благодаря своему опыту инженера и активиста по «экзистенциальным угрозам», Таллинн, по мнению многих экспертов, может лучше других определить проблемы, порождаемые искусственным интеллектом.
«Причина, по которой люди, а не шимпанзе, сейчас контролируют эту планету, заключается в том, что мы более способные и более умные, чем они», — сказал Таллинн ведущему The Bottom Line Стиву Клемонсу. «Мы не сильнее, но мы умеем осуществлять долгосрочное планирование и другие сложные операции. Теперь мы, как вид, участвуем в гонке за то, чтобы предоставить это преимущество машинам, что, как подсказывает интуиция здравомыслящих людей, не является хорошей идеей».
Яан Таллинн во время интервью The Bottom Line.
В присущей ему манере, Таллинн заявил, что по его мнению, искусственный интеллект может реализовать сценарий, подобный тому, который был показан в короткометражном фильме "Slaughterbots", созданном при его участии в рамках фестиваля Института будущего жизни. В этом фильме практически неуязвимые дроны с искусственным интеллектом убивают студентов, политиков и других граждан по своему желанию, оценивая их социальные сети, биометрические данные и участие на выборах.
«Внедрение искусственного интеллекта в вооруженные силы очень затрудняет человечеству контроль над развитием умных машин», — сказал Таллинн. «Вы в буквальном смысле участвуете в гонке вооружений». Он также предупредил, что существует неизбежная опасность использования ИИ исключительно для преследования обогащения, а не для защиты человечества: «Если мы окажемся во власти рыночных сил, у нас может не оказаться возможности эффективно управлять ситуацией».
Многие из экспертов уже сильно обеспокоены тем, что искусственный интеллект может разрушить частную жизнь людей, интеллектуальную собственность, рынок труда и другие важные моменты современной жизни. Комментарии Таллинна только усиливают эту тревогу. С другой стороны, некоторые специалисты утверждают, что беспокойство по поводу потенциальных катастрофических последствий от искусственного интеллекта (так называемого «фатализма ИИ») не является продуктивным и ни к чему хорошему не приведет. (Это очень похоже на возможную климатическую катастрофу, которая не позволяет людям добиться позитивных изменений, навязывая будущее в «обреченности и мраке».)
Интервью Клемонса с Таллинном началось с провокационного вопроса о том, является ли развитие искусственного интеллекта "самоубийственной гонкой для человечества", - и поэтому, возможно, оно не было настолько конструктивным, насколько могло бы быть. Тем не менее, Таллинн успел высказать некоторые интересные гипотезы по поводу регулирования искусственного интеллекта. Например, Европа приблизилась к тому, чтобы классифицировать и ограничивать использование ИИ в зависимости от степени риска. Таллинн также считает, что результаты работы искусственного интеллекта должны иметь особую метку, а центры обработки данных, используемые для обучения искусственного интеллекта, должны быть "сертифицированы".