48,1 тыс подписчиков
Мишустин, Чернышенко, Шадаев – как вы там? В ЕС уже есть консенсус по запрету биометрии, распознавания эмоций, «предиктивной аналитики» в общественных местах
Профильные комитеты Европарламента предварительно одобрили Закон об искусственном интеллекте, регулирующий различные аспекты использования систем и инструментов, основанных на ИИ. В частности, в проекте содержится запрет на использование технологии распознавания лиц в общественных местах, применение полицией предиктивной аналитики и меры по регулированию систем генеративного ИИ. По мнению экспертов, закон в случае принятия повлияет не только на европейский, но и на глобальный рынок.
Закон станет первым в мире примером разностороннего и всеобъемлющего регулирования использования искусственного интеллекта, на который в дальнейшем так или иначе будут ориентироваться власти других стран и корпорации.
Естественно, надо держать в уме, что подобная регуляторика имеет своей целью частично легализовать все инновации электронного концлагеря. Однако принципиально важно, что законопроект ЕС содержит в себе множество ограничений в т.н. критической сфере применения ИИ. А Правительство РФ (и власти отдельных регионов, особенно Москвы, Санкт-Петербурга, Нижегородской, Новгородской областей, Татарстана и т.д.), напротив, ныне дикими темпами внедряют в России все эти инструменты тотального машинного контроля за гражданами.
«Своим списком запретов парламент… дает понять правительствам и разработчикам, что некоторые виды применения ИИ слишком вредны, чтобы их можно было разрешить»,— считает старший советник по вопросам политики организации «Европейские цифровые права» (EDRi) Сара Чандер.
В числе прочего Закон об ИИ предусматривает запрет использования систем распознавания лиц и других систем «удаленной биометрической идентификации» в режиме реального времени в общественных местах. В последние годы они получили широкое распространение в разных странах.
Помимо распознавания лиц в классическом смысле, позволяющего определить личность человека по видео, закон запрещает также и так называемое распознавание эмоций. Оно работает сходным образом и выявляет состояние человека — это может быть использовано работодателями или полицией для выявления уставших работников или водителей.
Также закон запрещает использование полицией систем предиктивной аналитики для профилактики правонарушений. Такие системы, анализируя огромные массивы данных, делают прогноз о вероятности совершения преступления и составляют профили потенциальных правонарушителей. Помимо общей непрозрачности такого прогнозирования подобные системы ИИ уже критиковали за то, что они воспроизводят стереотипы, господствующие в обществе. Так, представители малообеспеченных групп населения могут быть отнесены ИИ к группе высокого риска только потому, что они чаще контактируют с социальными службами и их данные с большей вероятностью можно найти в государственных базах, на основе которых ИИ и делает прогнозы.
В целом компании, использующие различные ИИ-инструменты, должны будут оценивать их потенциальные риски с точки зрения «здоровья, безопасности, фундаментальных прав, окружающей среды, демократии и верховенства закона».
Вы слышали что-то подобное от наших законотворцев/министров, постоянно ссылающихся на западные тренды «четвертой промышленной революции», когда им надо оправдать тотальную оцифровку? Напротив, прямо сейчас они внедряют биометрическую идентификацию в «умных городах», лоббируют систему распознавания эмоций в школах, в метро, слежку за водителями на транспорте и т.д.
Если вы слепо перенимаете губительные для страны и народа вещи – может, пора уже присмотреться к тому, как те же ваши «партнеры» их ограничивают? Если для этого хватит воли и совести, конечно.
РИА КАТЮША
ПОДПИСЫВАЙТЕСЬ ЧТОБЫ БЫТЬ В КУРСЕ
3 минуты
13 мая 2023
133 читали