Недавно Apple объявила о том, что будет сканировать iPhone в США на предмет материалов о сексуальном насилии над детьми (CSAM). В рамках этой инициативы компания сотрудничает с правительством и вносит изменения в iCloud, iMessage, Siri и Search. Согласитесь, это звучит несколько настораживающе. Мы в России уже давно привыкли к тому, что под предлогом борьбы с действительно ужасными вещами, вводимые меры применяются по совершенно другим мотивам. Вот и в случае с Apple многие обеспокоились о слежке и рисках утечки данных.
Apple будет сканировать ваши фотографии в iCloud и просматривать их с помощью базы данных Национального центра по проблеме исчезнувших и эксплуатируемых детей (NCME)C, чтобы определить, есть ли какие-либо изображения CSAM. Хотя фактически, компания это делать будет не в облаке, а на вашем устройстве. То есть перед отправкой изображения в хранилище iCloud алгоритм выполнит проверку известных хешей CSAM. Когда фотография загружается в iCloud, Apple создает ваучер крипт