Финансирование работ по разработке стандартов безопасности для искусственного интеллекта (ИИ) в США может оказаться недостаточным, чтобы выполнить амбициозные планы. В октябре был объявлен указ Белого дома, который призывает к разработке стандартов для проверки ИИ-систем с целью выявления их предвзятости, скрытых угроз и проблем. Национальный институт стандартов и технологий (НИСТ) ответственен за разработку этих стандартов, но у него, кажется, не хватает средств, чтобы выполнить это задание самостоятельно до июля 2024 года, как требует указ. Это вызывает беспокойство среди членов Конгресса, которые опасаются, что НИСТ придется сильно зависеть от экспертизы частных компаний, которые могут иметь собственные интересы в формировании стандартов. НИСТ уже выпустил фреймворк для управления рисками, связанными с ИИ, и разработал методы измерения общественного доверия к новым ИИ-инструментам. Тем не менее, агентство, которое стандартизирует множество продуктов, не располагает достаточными ресу