Открытость призвана избежать
концентрации власти
в одних руках.
Итак, вопрос в следующем: стоит ли нам выпустить искусственный интеллект «на вольные хлеба» или же более разумным будет заточить его в научных лабораториях, сделав своего рода заложником нашей безопасности?
Технокорпорации, лидирующие в этой сфере, активно поддерживают необходимость политического регулирования ИИ-технологий, но тут есть важный нюанс: подчиняясь законам бизнеса, каждая из них ищет прежде всего собственной выгоды. Потому столь же активно, как и регулирование нейросетевых решений, участники споров лоббируют принятие таких новых правил и норм, которые бы защитили их бизнес и обеспечили привилегированное положение.
Как пишет издание The Associated Press, IBM, Meta и ряд других крупных компаний создают новую группу AI Alliance, выступая за подход «открытой науки» к развитию искусственного интеллекта, что ставит их в противоречие с конкурирующим объединением Frontier Model Forum, куда вошли Google, Microsoft и OpenAI, создавшая ChatGPT, добивающиеся сокрытия технологии. Эти два полярных лагеря (условно их можно назвать «открытый» и «закрытый») расходятся во мнениях относительно того, следует ли раскрывать и делать технологии, лежащие в основе ИИ, широкодоступными.
Те, кто призывает «открыть карты» выступают за подход, отвергающий патенты и какую-либо секретность вроде коммерческой тайны о сути изобретений. Опять же: главный упор делается на безопасность, поскольку возможности обсуждаемых технологий настолько велики, что их сравнение с оружием действительно можно считать оправданным. Будучи вещью в себе и сравнимый в этом разве что с котом Шрёдингера, ИИ не явит нам никаких подробностей о своей роли в жизни нашей цивилизации пока мы, условно говоря, не откроем «коробку». Ждут нас сокровища на его дне или же он обернётся ящиком Пандоры ‒ наверняка ответит только история. Пока же нам стоит основательно подготовиться, чтобы сделать разумным выбор, от которого столь многое зависит.
Новоиспечённый альянс включает в себя не только IBM и Meta. Сюда вошли такие техногиганты, как Dell, Sony, AMD, Intel; несколько стартапов в области ИИ и некоторые исследовательские университеты.
Дабы избежать путаницы, нужно уточнить, что, несмотря на своё название, OpenAI ‒ компания-разработчик, стоящая за ChatGPT и генератором изображений DALL-E, ‒ сегодня не вполне оправдывает своё название, создавая явно закрытые системы ИИ. Это случилось, когда её новое руководство отошло от курса, заданного основателями компании, ставившими перед ней цели работать, как пишется об этом в Википедии, «на благо общества, а не государства или корпораций».
Насколько же это в действительности опасно?
Даже нынешние модели искусственного интеллекта создают риски использования их в преступных целях, так что сомневаться в возможностях их будущих инкарнаций совсем не приходится. В качестве примера учёный из Калифорнийского университета в Беркли, Дэвид Эван Харрис, упоминает уже набившую оскомину мирового уровня дезинформацию. Допустим, с целью срыва или фальсификации выборов.
«Открытый исходный код действительно великолепен во многих аспектах технологий, ‒ соглашается он, ‒ но ИИ ‒ это другое».
«Любой, кто смотрел фильм «Оппенгеймер», знает, что, когда делаются большие научные открытия, есть много причин дважды подумать о том, насколько щедро стоит делиться деталями всей этой информации», ‒ напоминает исследователь.
Представитель Центра Гуманных Технологий Камилла Карлтон, вторит учёному, заявляя об определяющей важности сдерживающих норм и правил: «до тех пор, пока нет ограничений здесь и сейчас, совершенно безответственно предлагать эти модели публике».
Однако Ян ЛеКун, главный научный сотрудник Meta в области искусственного интеллекта, уличает оппонентов в «массовом корпоративном лоббировании» с целью написания будущих правил под свои нужды, дабы их высокопроизводительные модели искусственного интеллекта могли приносить им больше выгоды. Учёный видит в этом опасность концентрации власти над развитием этой и вытекающих из неё технологий в одних корпоративных руках.
«Это своего рода классический подход к захвату регулирующих органов, направленный на то, чтобы вызвать опасения по поводу инноваций с открытым исходным кодом, ‒ поддерживает его Крис Падилья, возглавляющий глобальную команду IBM по связям с правительством. ‒ Я имею в виду, что это была модель Microsoft на протяжении десятилетий, так? Они всегда выступали против программ с открытым исходным кодом, которые могли бы конкурировать с Windows или Office. Они применяют аналогичный подход и здесь».
Вообще же, соображений в формате «за и против» свободного или закрытого ИИ у каждого, наверное, найдётся немало. Ситуация с метаморфозой OpenAI ‒ лучшая иллюстрация оправданности опасений. В Википедии о принципах, стоявших у истоков компании, написано следующее: «Открытость призвана избежать концентрации власти, которую даёт ИИ, в одних руках». Может быть, только благодаря этому мы сегодня и можем обсуждать саму тему открытости нейросетевых технологий?
Что ж, может быть, вышеизложенное слишком походит на сюжеты околофантастических антиутопий, но это разговоры отнюдь не о чём-то невероятном или несбыточном. Очевидно, что споры идут не столько за участь технологии или авторских прав, как за технократическую власть, а значит ‒ за судьбы мира.
«В будущем, когда системы искусственного интеллекта станут хранилищем всех человеческих знаний и культуры, нам нужно, чтобы платформы были с открытым исходным кодом и были свободно доступны, чтобы каждый мог внести в них свой вклад, ‒ считает ЛеКун. ‒ Открытость ‒ это единственный способ заставить платформы ИИ отражать всю совокупность человеческих знаний и культуры».
Нам всем необходимо решить, каким мы хотим видеть «облик грядущего», ведь, как говорится в одноимённой книге Герберта Уэллса, «будущее зависит от нашего выбора».
По материалам АРМК.