Представители Apple пояснили, как будет работать функция по просмотру пользовательского контента
Внедряемая Apple в iOS система, которая будет сканировать загруженные в iCloud фото и видео на предмет изображений жестокого обращения с детьми (CSAM-контент), включая детскую порнографию, будет иметь "несколько уровней проверки".Smotrim.ru
Средства поиска детской порнографии, которыми Apple собирается оснастить свои мобильные телефоны и планшеты, не даст ей доступа к другому пользовательскому контенту.Комсомольская правда
«Речь буквально идет о том, чтобы выявлять точные совпадения с конкретными известными детскими порнографическими изображениями», — уточнил Федериги.МедиаПоток
Уведомление о потенциально противоправном детском контенте, во избежание ложных срабатываний, будет направляться в Apple только по достижении определенного порога совпадений.Smotrim.ru