Apple: система поиска детского порно не сможет сканировать другой контент

Внедряемая Apple в iOS система, которая будет сканировать загруженные в iCloud фото и видео на предмет изображений жестокого обращения с детьми (CSAM-контент), включая детскую порнографию, будет иметь "несколько уровней проверки".Smotrim.ru
Эта новость в СМИ