84 подписчика
Группа по защите детей обратилась к Apple с вопросом о причинах отказа от анонсированной функции обнаружения материалов о сексуальном насилии над детьми CSAM, и компания дала самый подробный ответ. И это прекрасный пример здоровой паранойи и деликатности.
Напомним, в некоторое время назад Apple анонсировала функцию Communication Safety, которая сама бы сканировала фотобиблиотеки пользователей iCloud и их айфонов и сообщала бы правоохранительным органам если находила в них сигнатуры изображений детской порнографии. В декабре 2022 года от этих противоречивых инструментов было решено отказаться, что вызвало новые споры.
В официально ответе Apple говорится, что отказались от своих планов они в веду опасений за безопасность и конфиденциальность пользователей. Попытка найти способ доступа к информации, которая обычно зашифрована, противоречит более широкой позиции Apple в отношении конфиденциальности и безопасности — позиции, которая продолжает расстраивать мировые державы.
"Материалы о сексуальном насилии над детьми отвратительны, и мы стремимся разрушить цепочку принуждения и влияния, которая делает детей восприимчивыми к этому", — написал Эрик Нойеншвандер, директор Apple по вопросам конфиденциальности пользователей и безопасности детей.
"Сканирование приватно хранящихся в iCloud данных каждого пользователя создаст новые векторы угроз, которые смогут найти и использовать похитители данных", — продолжает Нойеншвандер. — "Это также создаст потенциал для возникновения скользкой дорожки непредвиденных последствий. Сканирование одного типа контента, например, открывает возможности для массового наблюдения и может вызвать желание проводить поиск в других системах обмена зашифрованными сообщениями по всем типам контента".
"Мы решили отказаться от реализации предложения о гибридном клиент-серверном подходе к обнаружению CSAM для iCloud Photos, сделанного несколько лет назад", — закончил он. — "Мы пришли к выводу, что его практически невозможно реализовать без ущерба для безопасности и конфиденциальности наших пользователей".
Вместо того чтобы использовать подход, который нарушает доверие пользователей и превращает Apple в посредника при обработке сообщений, компания хочет помочь направить жертв к ресурсам и правоохранительным органам. API для разработчиков, которые могут использовать такие приложения, как Discord, помогут просветить пользователей и направить их для сообщения о правонарушителях.
Apple никоим образом не "сканирует" фотографии пользователей, хранящиеся на устройстве или в iCloud. Функция безопасности общения может быть включена для детских аккаунтов, но не будет уведомлять родителей об обнаружении обнаженной натуры в чатах.
2 минуты
1 сентября 2023