Новый анализ показывает, что инструменты искусственного интеллекта с «открытым исходным кодом», такие как Llama 2, по-прежнему контролируются крупными технологическими компаниями во многих отношениях.
CHATGPT СДЕЛАЛ ЭТО
Каждый может играть с мощным искусственным интеллектом , но внутренняя работа всемирно известного чат-бота остается тщательно охраняемой тайной.
Однако в последние месяцы усилия сделать ИИ более «открытым», похоже, набрали обороты. В мае кто-то слил информацию о модели Meta под названием Llama, которая предоставила посторонним доступ к ее базовому коду, а также к «весам», определяющим ее поведение. Затем, в июле этого года, Meta решила создать еще более мощную модель под названием Llama 2 , доступную для скачивания, модификации и повторного использования. С тех пор модели Meta стали чрезвычайно популярной основой для многих компаний, исследователей и любителей, создающих инструменты и приложения с возможностями, подобными ChatGPT.
«У нас есть широкий круг сторонников по всему миру, которые верят в наш открытый подход к сегодняшнему ИИ... исследователи, приверженные исследованиям с использованием этой модели, а также люди из технологических, академических кругов и политиков, которые видят преимущества Llama и открытого подхода. платформа, как и мы», — сказала Meta, анонсируя Llama 2. Сегодня утром Meta выпустила еще одну модель, Llama 2 Code, которая идеально настроена для кодирования.
Может показаться, что подход с открытым исходным кодом , который на протяжении десятилетий демократизировал доступ к программному обеспечению, обеспечивал прозрачность и повышал безопасность, теперь может оказать аналогичное влияние на ИИ.
Не так быстро, говорят группа, стоящая за исследовательской работой, в которой изучается реальность Llama 2 и других моделей ИИ, которые так или иначе описываются как «открытые». Исследователи из Университета Карнеги-Меллона, Института AI Now и Signal Foundation говорят, что модели, маркированные как «открытые», могут иметь некоторые недостатки.
Llama 2 можно бесплатно загрузить, изменить и развернуть, но на нее не распространяется обычная лицензия с открытым исходным кодом. Лицензия Meta запрещает использование Llama 2 для обучения других языковых моделей, и для этого требуется специальная лицензия, если разработчик развертывает ее в приложении или сервисе с более чем 700 миллионами пользователей в день.
Такой уровень контроля означает, что Llama 2 может предоставить Meta значительные технические и стратегические преимущества, например, позволяя компании получать выгоду от полезных настроек, внесенных сторонними разработчиками, когда она использует эту модель в своих собственных приложениях.
По словам исследователей , модели, выпускаемые под обычными лицензиями с открытым исходным кодом, такие как GPT Neo от некоммерческой организации EleutherAI , являются более открытыми. Но таким проектам сложно выйти на равные позиции.
Во-первых, данные, необходимые для обучения продвинутых моделей, часто держатся в секрете. Во-вторых, программные платформы, необходимые для построения таких моделей, часто контролируются крупными корпорациями. Два самых популярных из них, TensorFlow и Pytorch, поддерживаются Google и Meta соответственно. В-третьих, мощность компьютера, необходимая для обучения большой модели, также находится за пределами досягаемости любого обычного разработчика или компании, и обычно для одного обучающего прогона требуются десятки или сотни миллионов долларов. И, наконец, человеческий труд, необходимый для доработки и улучшения этих моделей, также является ресурсом, который в основном доступен только крупным компаниям с глубокими карманами.
При таком развитии событий одна из самых важных технологий за последние десятилетия может в конечном итоге обогатить и расширить возможности лишь горстки компаний, включая OpenAI, Microsoft, Meta и Google. Если ИИ действительно является технологией, меняющей мир, то наибольшие выгоды можно было бы ощутить, если бы он стал более широко доступным.
«Наш анализ указывает на то, что открытость не только не способствует «демократизации» ИИ», — говорит мне Мередит Уиттакер , президент Signal и один из исследователей, стоящих за статьей. «Действительно, мы показываем, что компании и учреждения могут и используют «открытые» технологии для укрепления и расширения централизованной власти».
Уиттакер добавляет, что миф об открытости должен стать фактором столь необходимого регулирования ИИ . «Нам очень нужны значимые альтернативы технологиям, определяемым и доминируемым крупными монополистическими корпорациями, особенно учитывая, что системы искусственного интеллекта интегрированы во многие весьма чувствительные области, имеющие особое общественное значение: в здравоохранении, финансах, образовании и на рабочем месте», — говорит она. «Создание условий, которые сделают такие альтернативы возможными, — это проект, который может сосуществовать и даже поддерживаться регуляторными движениями, такими как антимонопольные реформы».
Помимо ограничения влияния крупных компаний, повышение открытости ИИ может иметь решающее значение для раскрытия лучшего потенциала технологии и предотвращения ее худших тенденций.
Если мы хотим понять, насколько эффективны самые передовые модели ИИ, и снизить риски, которые могут возникнуть в результате их развертывания и дальнейшего прогресса, возможно, было бы лучше сделать их открытыми для ученых всего мира.
Точно так же, как безопасность через неизвестность никогда не гарантирует, что код будет работать безопасно, защита работы мощных моделей ИИ, возможно, не самый разумный способ действовать.