Прошло больше года с тех пор, как Apple представила функцию, которая автоматически обнаруживает фотографии на iPhone, содержащие сцены с жестоким обращением с детьми (CSAM). Изначально Apple планировала добавить функцию в iOS 15 к концу 2021 году. Но в итоге компания отложила её запуск после того, как подверглась критике со стороны пользователей, экспертов по безопасности и правозащитных организаций. В декабре 2021 года Apple удалила все упоминания функции со своего сайта, но представитель компании сообщил, что планы не изменились. С тех пор Apple не комментировала запуск функции. Apple собиралась сканировать только фотографии, выгружаемые в iCloud. Все операции должны были осуществляться на iPhone. Для сканирования каждый снимок хэшировался, а затем система сравнивала его код с фотографиями, которые содержат сцены с жестоким обращением с детьми. При многочисленных совпадениях проверять изображения должен был специальный человек. Если бы он подтвердил наличие незаконных фото, то Ap
Прошло больше года с тех пор, как Apple представила функцию, которая автоматически обнаруживает фотографии на iPhone
15 августа 202215 авг 2022
~1 мин