Если регулирующие органы не примут меры сейчас, бум генеративного ИИ еще больше сконцентрирует власть Большого технологического сообщества. Таков главный аргумент нового доклада исследовательского института AI Now. И в этом есть смысл. Чтобы понять почему, подумайте, что нынешний бум ИИ зависит от двух вещей: больших объемов данных и достаточной вычислительной мощности для их обработки.
Оба этих ресурса доступны только крупным компаниям. И хотя некоторые из наиболее интересных приложений, такие как чат-бот ChatGPT от OpenAI и ИИ Stability.AI для генерации изображений Stable Diffusion, созданы стартапами, они зависят от сделок с Big Tech, которые дают им доступ к огромным данным и вычислительным ресурсам.
"Несколько крупных технологических фирм готовы консолидировать власть с помощью ИИ, а не демократизировать ее", - говорит Сара Майерс Уэст, управляющий директор исследовательской некоммерческой организации AI Now Institute.
В настоящее время большие технологии держат ИИ под контролем. Но Майерс Вест считает, что мы находимся на переломном этапе. Это начало нового технологического цикла, а значит, у законодателей и регуляторов есть уникальная возможность обеспечить, чтобы следующее десятилетие технологий ИИ было более демократичным и справедливым".
Этот технологический бум отличается от предыдущих тем, что мы лучше понимаем все катастрофические пути, по которым ИИ может пойти не так. И регулирующие органы повсюду уделяют этому пристальное внимание.
Китай только что представил законопроект о генеративном ИИ, призывающий к большей прозрачности и надзору, а Европейский союз ведет переговоры по закону об ИИ, который потребует от технологических компаний большей прозрачности в отношении работы систем генеративного ИИ. Он также планирует принять законопроект, предусматривающий ответственность за вред, причиненный ИИ.
США традиционно неохотно регулируют свой технологический сектор. Но ситуация меняется. Администрация Байдена просит высказать свое мнение о том, как контролировать модели ИИ, такие как ChatGPT - например, требуя от технологических компаний проведения аудита и оценки воздействия, или обязывая системы ИИ соответствовать определенным стандартам до их выпуска. Это один из самых конкретных шагов, предпринятых администрацией для ограничения вреда от ИИ.
Между тем, председатель Федеральной торговой комиссии Лина Хан также подчеркнула преимущество Больших технологий в данных и вычислительных мощностях и пообещала обеспечить конкуренцию в индустрии ИИ. Агентство пригрозило антимонопольными расследованиями и пресечением обманных методов ведения бизнеса.
Это новое внимание к сектору ИИ отчасти объясняется тем, что многие члены Института AI Now, включая Майерса Уэста, работали в ФТК.
Майерс Вест говорит, что работа в ФТК научила ее тому, что регулирование ИИ не обязательно начинать с чистого листа. Вместо того, чтобы ждать принятия специфических для ИИ нормативных актов, таких как Закон ЕС об ИИ, на реализацию которого уйдут годы, регуляторам следует усилить контроль за соблюдением существующих законов о защите данных и конкуренции.
Поскольку ИИ, каким мы его знаем сегодня, в значительной степени зависит от огромных объемов данных, политика в области данных также является политикой в области искусственного интеллекта, говорит Майерс Вест.
Пример: Компания ChatGPT столкнулась с пристальным вниманием со стороны европейских и канадских органов по защите данных, а в Италии она была заблокирована за якобы незаконный сбор персональных данных из Интернета и неправомерное использование личных данных.
Призыв к регулированию исходит не только от правительственных чиновников. Произошло кое-что интересное. После десятилетий борьбы с регулированием, сегодня большинство технологических компаний, включая OpenAI, заявляют, что приветствуют его.
Главный вопрос, над которым все еще бьются, - как следует регулировать ИИ. Хотя технологические компании заявляют, что поддерживают регулирование, они все еще придерживаются подхода "сначала выпусти, потом задавай вопросы", когда дело доходит до запуска продуктов на базе ИИ. Они спешат выпустить модели ИИ, генерирующие изображения и тексты, в качестве продуктов, несмотря на то, что эти модели имеют серьезные недостатки: они придумывают бессмыслицу, закрепляют вредные предубеждения, нарушают авторские права и содержат уязвимости в системе безопасности.
Предложение Белого дома решить проблему подотчетности ИИ с помощью мер, принимаемых после запуска продуктов ИИ, таких как алгоритмический аудит, недостаточно для снижения вреда от ИИ, утверждается в докладе AI Now. Необходимы более решительные и оперативные меры, чтобы компании сначала доказали, что их модели пригодны к выпуску, говорит Майерс Вест.
"Мы должны очень настороженно относиться к подходам, которые не возлагают бремя на компании. Существует множество подходов к регулированию, которые, по сути, возлагают бремя искоренения вреда, наносимого ИИ, на широкую общественность и на регулирующие органы", - говорит она.
original
#Chargpt #ИИ #искусственныйинтеллект #AI