Поскольку уже всем понятно, что нейросети легко учатся плохому (становятся предвзятыми, неэтичными и опасными), американцы представили проект билля о правах ИИ: чтобы защитить «кожаные мешки» от созданных ими же самими технологий (как видим, в подлунном мире — ничего нового).
Билль о правах сводится к следующим принципам: ИИ должен быть безопасным и полезным для человека, должен защищать от дискриминации со стороны алгоритмов, а также от злоупотребления приватными данными пользователей и следить за тем, как они используются (быть полным властелином данных, короче говоря). Работа ИИ должна быть понятна и прозрачна, а у людей всегда должна быть возможность отказаться от использования алгоритмов в любой момент (отказывайтесь тогда от телефонов и компьютеров, от городских улиц с системой распознавания лиц и маркетплейсов с соцсетями, которые уже знают о каждом из нас намного больше, чем мы сами).
При этом в документе нет ни слова о том, как будет осуществляться соблюдение этих правил. Хотя бы в свете ситуации с повсеместной биометрией и стремительно «умнеющими» городами, пылесосами, чайниками и подушками, помнящими каждый ночной вздох. Поэтому новый билль о правах, как и другие документы, регулирующие работу ИИ, которые ранее уже сочиняли в Евросоюзе, все больше напоминает фиговый листок.