6650 подписчиков
Официально: Apple не будет сканировать фото в iCloud
В 2021 году была анонсирована функция сканирования вашего хранилища iCloud с целью поиска и удаления запрещенного контента (конкретно речь шла о детском порно).
Точно не известно была эта функция запущена или нет, у одного депутата гос думы по его словам были удалены фотографии его 3 месячного обнаженного сына и им было получено уведомление что это результат сканирования Apple. Скриншотов он правда не сделал и наверное изображение младенца действительно можно принять за детское порно.
Но сегодня в теме поставила точку Apple.
После обширных консультаций с экспертами для сбора отзывов об инициативах по защите детей, предложенных нами в прошлом году, мы углубляем наши инвестиции в функцию «Безопасность общения», которую мы впервые сделали доступной в декабре 2021 года. Кроме того, мы решили не продвигать предложенный нами ранее инструмент обнаружения CSAM для фото в iCloud. Детей можно защитить и без компаний, копающихся в личных данных, и мы будем продолжать работать с правительствами, защитниками детей и другими компаниями, чтобы помочь защитить молодых людей, сохранить их право на частную жизнь и сделать интернет более безопасным местом для детей и для всех нас.
Apple
На данный момент нет официальных подтверждений случаев когда Apple или злоумышленники получали доступ к данным на iPhone. С облаком такие риски есть.
1 минута
8 декабря 2022
808 читали