Расширенная защита для детей
Apple создает технологии, которые помогают защитить детей от хищников, которые используют средства коммуникации для их вербовки и эксплуатации, а также ограничить распространение материалов "о том самом страшном, которое может произойти с вашими детьми" (CSAM). Пишу это завуалировано, потому что не хочу попасть в бан, а хочу чтобы ВСЕ ЭТО ПРОЧИТАЛИ!!!
Apple представляет новые функции безопасности детей в трех областях, разработанные в сотрудничестве с экспертами по безопасности детей. Во-первых, новые средства коммуникации позволят родителям играть более информированную роль, помогая своим детям ориентироваться в общении в Интернете.
Затем iOS будет использовать новые приложения криптографии, чтобы ограничить распространение CSAM в Интернете, при этом обеспечивая конфиденциальность пользователей. Обнаружение CSAM поможет Apple предоставить правоохранительным органам ценную информацию.
Siri и Search также будут вмешиваться, когда пользователи пытаются искать темы, связанные с CSAM.
Это программа с большим будущем и амбициями. И защита детей - важная обязанность.
Безопасность общения в сообщениях
Приложение «Сообщения» добавит новые инструменты для предупреждения детей и их родителей о получении или отправке фотографий откровенного ******** характера.
При получении такого контента фотография будет размытой, а ребенок будет предупрежден. Аналогичные меры защиты доступны, если ребенок пытается отправить фотографии откровенного ******** характера. Ребенок будет предупрежден перед отправкой фотографии, и родители могут получить сообщение, если ребенок решит отправить его.
Обнаружение CSAM
Еще одна важная проблема - это распространение в Интернете материалов "о том самом страшном, которое может произойти с вашими детьми" (CSAM). CSAM относится к контенту, изображающему откровенные плохие и страшные действия с участием ребенка.
Чтобы решить эту проблему, новая технология в iOS и iPadOS * позволит Apple обнаруживать известные изображения CSAM, хранящиеся в iCloud Photos. Это позволит Apple сообщать об этих случаях в Национальный центр пропавших без вести и эксплуатируемых детей (NCMEC). NCMEC действует как комплексный центр отчетности для CSAM и работает в сотрудничестве с правоохранительными органами США.
Расширенное руководство в Siri и Поиске
Apple также расширяет возможности Siri и Поиска, предоставляя дополнительные ресурсы, чтобы помочь детям и родителям оставаться в безопасности в Интернете и получать помощь в небезопасных ситуациях. Например, пользователям, которые спрашивают Siri, как они могут сообщить о CSAM или эксплуатации детей, будут указаны ресурсы, где и как отправить отчет.
Siri и Search также обновляются, чтобы вмешиваться, когда пользователи выполняют поиск запросов, связанных с CSAM. Эти вмешательства объяснят пользователям, что интерес к этой теме вреден и проблематичен.
Что думаете по этому поводу?
Можно ли это назвать защитой или цель совсем в другом?
Пишите ответы в комментария 👇
Понравилась статья - ставьте лайк 👍
И подписывайтесь на канал Call Me Banana 💛
(Информация с официального сайта Apple)