83 подписчика
Помимо того, что для фотографий iCloud стало доступно сквозное шифрование, Apple сегодня объявила об отказе от своих весьма спорных планов по обнаружению материалов о сексуальном насилии над детьми (CSAM), хранящихся в iCloud Photos. Об этом говорится в заявлении компании, опубликованном изданием WIRED.
— ...Кроме того, мы решили не продвигать предложенный нами ранее инструмент обнаружения CSAM для Фото iCloud. Детей можно защитить и без компаний, копающихся в личных данных, и мы будем продолжать работать с правительствами, защитниками детей и другими компаниями, чтобы помочь защитить молодых людей, сохранить их право на частную жизнь и сделать интернет более безопасным местом для детей и для всех нас.
В августе 2021 года Apple объявила о планах создания трех новых функций для обеспечения безопасности детей, включая систему обнаружения известных изображений CSAM, хранящихся в iCloud Photos, опцию Communication Safety, которая размывает сексуально откровенные фотографии в приложении Messages, и ресурсы по детской эксплуатации для Siri. Функция Communication Safety была запущена в США с iOS 15.2 в декабре 2021 года и с тех пор распространилась на Великобританию, Канаду, Австралию и Новую Зеландию, также доступны ресурсы для Siri, но обнаружение CSAM так и не было запущено.
Изначально Apple заявила, что обнаружение CSAM будет реализовано в обновлении iOS 15 и iPadOS 15 к концу 2021 года, но в итоге компания отложила функцию, основываясь на "отзывах клиентов, групп защиты, исследователей и других". Теперь, после года молчания, Apple полностью отказалась от планов по обнаружению CSAM.
Apple обещала, что ее система обнаружения CSAM будет "разработана с учетом конфиденциальности пользователей". Система должна была выполнять "сопоставление на устройстве с использованием базы данных известных хэшей изображений CSAM", полученных от организаций, обеспечивающих безопасность детей, которые Apple должна была преобразовать в "нечитаемый набор хэшей, надежно хранящийся на устройствах пользователей".
Планы Apple подверглись критике со стороны широкого круга лиц и организаций, включая исследователей безопасности, Electronic Frontier Foundation (EFF), политиков, университетских исследователей и даже некоторых сотрудников Apple.
Критики утверждали, что эта функция создала бы "черный ход" в устройствах, который правительства или правоохранительные органы могли бы использовать для слежки за пользователями. Другой проблемой были ложные срабатывания, включая возможность того, что кто-то намеренно добавит изображения CSAM в аккаунт iCloud другого человека, чтобы его аккаунт попал в прицел контролирующих органов.
2 минуты
8 декабря 2022