Apple: система поиска детского порно не сможет сканировать другой контент

Внедряемая Apple в iOS система, которая будет сканировать загруженные в iCloud фото и видео на предмет изображений жестокого обращения с детьми (CSAM-контент), включая детскую порнографию, будет иметь "несколько уровней проверки".Smotrim.ru
Средства поиска детской порнографии, которыми Apple собирается оснастить свои мобильные телефоны и планшеты, не даст ей доступа к другому пользовательскому контенту.Комсомольская правда
«Речь буквально идет о том, чтобы выявлять точные совпадения с конкретными известными детскими порнографическими изображениями», — уточнил Федериги.МедиаПоток
Уведомление о потенциально противоправном детском контенте, во избежание ложных срабатываний, будет направляться в Apple только по достижении определенного порога совпадений.Smotrim.ru
Эта новость в СМИ