Найти тему

Помимо того, что для фотографий iCloud стало доступно сквозное шифрование, Apple сегодня объявила об отказе от своих весьма спорных планов по обнаружению материалов о сексуальном насилии над детьми (CSAM), хранящихся в iCloud Photos. Об этом говорится в заявлении компании, опубликованном изданием WIRED.


— ...Кроме того, мы решили не продвигать предложенный нами ранее инструмент обнаружения CSAM для Фото iCloud. Детей можно защитить и без компаний, копающихся в личных данных, и мы будем продолжать работать с правительствами, защитниками детей и другими компаниями, чтобы помочь защитить молодых людей, сохранить их право на частную жизнь и сделать интернет более безопасным местом для детей и для всех нас.

В августе 2021 года Apple объявила о планах создания трех новых функций для обеспечения безопасности детей, включая систему обнаружения известных изображений CSAM, хранящихся в iCloud Photos, опцию Communication Safety, которая размывает сексуально откровенные фотографии в приложении Messages, и ресурсы по детской эксплуатации для Siri. Функция Communication Safety была запущена в США с iOS 15.2 в декабре 2021 года и с тех пор распространилась на Великобританию, Канаду, Австралию и Новую Зеландию, также доступны ресурсы для Siri, но обнаружение CSAM так и не было запущено.

Изначально Apple заявила, что обнаружение CSAM будет реализовано в обновлении iOS 15 и iPadOS 15 к концу 2021 года, но в итоге компания отложила функцию, основываясь на "отзывах клиентов, групп защиты, исследователей и других". Теперь, после года молчания, Apple полностью отказалась от планов по обнаружению CSAM.

Apple обещала, что ее система обнаружения CSAM будет "разработана с учетом конфиденциальности пользователей". Система должна была выполнять "сопоставление на устройстве с использованием базы данных известных хэшей изображений CSAM", полученных от организаций, обеспечивающих безопасность детей, которые Apple должна была преобразовать в "нечитаемый набор хэшей, надежно хранящийся на устройствах пользователей".

Планы Apple подверглись критике со стороны широкого круга лиц и организаций, включая исследователей безопасности, Electronic Frontier Foundation (EFF), политиков, университетских исследователей и даже некоторых сотрудников Apple.

Критики утверждали, что эта функция создала бы "черный ход" в устройствах, который правительства или правоохранительные органы могли бы использовать для слежки за пользователями. Другой проблемой были ложные срабатывания, включая возможность того, что кто-то намеренно добавит изображения CSAM в аккаунт iCloud другого человека, чтобы его аккаунт попал в прицел контролирующих органов.
2 минуты