Найти тему
Apple SPb Event

Apple отказалась от планов по обнаружению известных материалов о сексуальном насилии над детьми на iPhone

[via]

Помимо того, что для «Фото iCloud» стало доступно сквозное шифрование, компания Apple объявила об отказе от своих спорных планов по обнаружению известных материалов о сексуальном насилии над детьми (CSAM), хранящихся в облаке пользователей, говорится в заявлении, поступившем в редакцию WIRED.

После обширных консультаций с экспертами для сбора отзывов об инициативах по защите детей, предложенных нами в прошлом году, мы усиливаем наши инвестиции в функцию Communication Safety, которую впервые сделали доступной в декабре 2021 года. Кроме того, мы решили не продвигать предложенный нами ранее инструмент обнаружения CSAM для «Фото iCloud».

Детей можно защитить и без привлечения организаций, копающихся в личных данных, и мы будем продолжать работать с правительствами, детскими правозащитными организациями и другими компаниями, чтобы помочь защитить несовершеннолетних, сохранить их право на частную жизнь и сделать интернет более безопасным местом для них и для всех нас.

В августе 2021 года компания Apple объявила о планах по созданию трёх новых функций безопасности для детей, включая систему обнаружения известных изображений CSAM, хранящихся в iCloud Photos, опцию Communication Safety, которая размывает сексуально откровенные фотографии в приложении «Сообщения», и ресурсы по детской эксплуатации для Siri.

Функция Communication Safety была запущена в США с iOS 15.2 в декабре 2021 года и с тех пор распространилась на Великобританию, Канаду, Австралию и Новую Зеландию, ресурсы Siri также доступны, но обнаружения CSAM так и не было реализована.

Первоначально Apple заявила, что обнаружение CSAM будет реализовано в обновлении iOS 15 и iPadOS 15 к концу 2021 года, но в итоге отложила реализацию, основываясь на «отзывах клиентов, правозащитных групп, исследовательских организаций и других». Теперь, после года молчания, Apple полностью отказалась от планов по выявлению CSAM.

Apple планирует сделать так, чтобы iOS обнаруживала фотографии насилия над детьми на iPhone

Apple обещала, что её система обнаружения изображений была «разработана с учётом конфиденциальности пользователей». Она должна была выполнять «сопоставление фотографий на устройстве с использованием базы данных известных хэшей изображений» от организаций по безопасности детей, которые Apple преобразует в «нечитаемый набор хэшей, надёжно хранящийся на устройствах пользователей».

Apple планировала сообщать о выявленных учётных записях iCloud с известными хэшами изображений CSAM в Национальный центр пропавших и эксплуатируемых детей (NCMEC), некоммерческую организацию, которая работает в сотрудничестве с правоохранительными органами США.

Компания заявила, что будет установлен порог, который обеспечит «менее одного на один триллион шанса в год» того, что учётная запись будет неправильно отмечена системой, плюс будет проводиться ручная модерация отмеченных учётных записей человеком.

Планы Apple подверглись критике со стороны широкого круга лиц и организаций, включая исследователей безопасности, Electronic Frontier Foundation (EFF), политиков, политические группы, университетских исследователей и даже некоторых сотрудников Apple.

Некоторые критики утверждали, что эта функция создала бы бэкдор в устройствах, который правительства или правоохранительные органы могли бы использовать для слежки за пользователями. Другой проблемой были ложные срабатывания, включая возможность того, что кто-то намеренно добавит CSAM-изображения в аккаунт iCloud другого человека, чтобы его компрометировать.

Больше интересного в нашем Telegram: https://t.me/applespbevent

Ещё по теме: