После нескольких лет обсуждений и согласований Европейский парламент наконец утвердил историческое законодательство, устанавливающее первые широкомасштабные ограничения на использование искусственного интеллекта в Европе. Так называемый «Акт об искусственном интеллекте» вступит в полную силу к ноябрю 2024 года после завершения всех формальных процедур в мае этого года.
Новые правила стали ответом на растущую обеспокоенность граждан и экспертов по поводу рисков, связанных с безудержным развитием и внедрением технологий искусственного интеллекта, особенно систем на основе нейронных сетей. Проблемы нарушения неприкосновенности частной жизни, дискриминации, отсутствия прозрачности алгоритмов привели к необходимости создания четкой нормативно-правовой базы для регулирования ИИ.
«Акт ИИ» устанавливает ряд жестких ограничений и запретов на использование определенных приложений искусственного интеллекта.
В первую очередь, вводится полный запрет на применение нейросетей для создания и пополнения массивных баз данных с изображениями лиц граждан, собранных из интернета и общедоступных видеоматериалов. Исключение сделано только для правоохранительных органов и специальных служб, которым такая деятельность будет разрешена в строго определенных случаях.
Данная мера направлена на защиту права граждан на неприкосновенность частной жизни и пресечение практики тотальной слежки. В последние годы появились системы, использующие нейросети для идентификации людей по фотографиям и видео в общественных местах, на массовых мероприятиях.
Об этом я уже рассказывал на примере ролика здесь
Эти технологии широко применялись полицией и частными компаниями, зачастую без ведома и согласия граждан. Новые правила ЕС должны положить конец такой деятельности.
Также «Акт ИИ» запрещает использовать системы на основе искусственного интеллекта для оценки и прогнозирования эмоционального состояния и моделей поведения людей в сферах трудоустройства, образования и оказания услуг. Это ограничение направлено на предотвращение дискриминации и защиту личной свободы. В последнее время многие работодатели и учебные заведения начали применять нейросетевые системы для анализа эмоций сотрудников и студентов по выражению лиц и жестам. Такая практика расценивается как нарушение границ личного пространства.
Кроме того, новые европейские правила полностью запрещают использовать ИИ для прогнозирования и предсказания противоправного или антиобщественного поведения отдельных лиц, основанные только на их личных данных. Опыты по применению подобных систем уже проводились в некоторых регионах для оценки рисков рецидивной преступности. Однако было признано, что такие решения зачастую являются предвзятыми из-за наличия признаков дискриминации по расовому, социальному и другим признакам.
В сферах, определенных как высокорисковые, к которым относятся оборона, государственное управление, здравоохранение, транспорт и энергетика, использование систем искусственного интеллекта будет жестко контролироваться регулирующими органами ЕС. Все подобные приложения ИИ должны будут пройти обязательную сертификацию на соответствие нормам безопасности и защиты прав человека. На разработчиков возлагается ответственность за обеспечение прозрачности алгоритмов и отслеживание предвзятости решений.
Отдельным пунктом «Акта ИИ» вводится обязательное маркирование всего синтетического визуального контента (изображений, видео), созданного с помощью технологий искусственного интеллекта, таких как генеративные адверсарные сети (GAN). Это касается всего материала, включая медиа для развлечений, рекламы и искусства. Маркировка deepfake контента призвана повысить осведомленность общества и снизить риски манипуляций и введения в заблуждение.
Регулирование ИИ в Европе будет осуществляться координированными усилиями Европейской комиссии и уполномоченных национальных органов стран-участниц. За нарушение требований «Акта об ИИ» предусмотрены серьезные штрафные санкции для компаний и организаций вплоть до 6% от годового оборота.
Источник: tinyurl.com/53ccaa72
Подписывайтесь, что бы быть в курсе новостей Ai метавселенной.