Apple будет просматривать фотографии пользователей. Всё ли так плохо?
Apple разрабатывает новую систему CSAM (Child Sexual Abuse Material), что в переводе материалы сексуального насилия над детьми. Данная система будет помогать как детям, так и их родителям избегать различный шоковый контент в iMessage и не только. В этой статье я постараюсь вам подробно описать работу функции и разъяснить, стоит ли паниковать по этому поводу. Компания Apple всегда боролась за конфиденциальность пользователей, однако, с новой системой, компания сворачивает куда-то не туда. Но не всё так плохо, как вы могли себе представить...