Apple разрабатывает новую систему CSAM (Child Sexual Abuse Material), что в переводе материалы сексуального насилия над детьми. Данная система будет помогать как детям, так и их родителям избегать различный шоковый контент в iMessage и не только. В этой статье я постараюсь вам подробно описать работу функции и разъяснить, стоит ли паниковать по этому поводу. Компания Apple всегда боролась за конфиденциальность пользователей, однако, с новой системой, компания сворачивает куда-то не туда. Но не всё так плохо, как вы могли себе представить. Программа CSAM будет состоять из двух частей: защита детей от шокирующего контента в iMessage, выявление насилия над детьми в медиатеке iCloud. Так же Apple обучит Siri выдавать помощь по таким вопросам. Теперь разберём каждый пункт отдельно. iMessage Встроенный мессенджер в iPhone получит функцию безопасного общения: iMessage будет предупреждать детей и их родителей при получении или отправке фотографий сексуального характера. Благодаря машинному обу
Apple будет просматривать фотографии пользователей. Всё ли так плохо?
8 августа 20218 авг 2021
1
3 мин