Найти тему
Call Me Banana

Что Apple будет знать о наших детях после обновления на iOS 15

Расширенная защита для детей

Apple создает технологии, которые помогают защитить детей от хищников, которые используют средства коммуникации для их вербовки и эксплуатации, а также ограничить распространение материалов "о том самом страшном, которое может произойти с вашими детьми" (CSAM). Пишу это завуалировано, потому что не хочу попасть в бан, а хочу чтобы ВСЕ ЭТО ПРОЧИТАЛИ!!!
Apple представляет новые функции безопасности детей в трех областях, разработанные в сотрудничестве с экспертами по безопасности детей. Во-первых, новые средства коммуникации позволят родителям играть более информированную роль, помогая своим детям ориентироваться в общении в Интернете.
Затем iOS будет использовать новые приложения криптографии, чтобы ограничить распространение CSAM в Интернете, при этом обеспечивая конфиденциальность пользователей. Обнаружение CSAM поможет Apple предоставить правоохранительным органам ценную информацию.
Siri и Search также будут вмешиваться, когда пользователи пытаются искать темы, связанные с CSAM.
Это программа с большим будущем и амбициями. И защита детей - важная обязанность.

Дети и гаджеты
Дети и гаджеты

Безопасность общения в сообщениях

Приложение «Сообщения» добавит новые инструменты для предупреждения детей и их родителей о получении или отправке фотографий откровенного ******** характера.
При получении такого контента фотография будет размытой, а ребенок будет предупрежден. Аналогичные меры защиты доступны, если ребенок пытается отправить фотографии откровенного ******** характера. Ребенок будет предупрежден перед отправкой фотографии, и родители могут получить сообщение, если ребенок решит отправить его.

Влияние гаджетов на детскую психику
Влияние гаджетов на детскую психику

Обнаружение CSAM

Еще одна важная проблема - это распространение в Интернете материалов "о том самом страшном, которое может произойти с вашими детьми" (CSAM). CSAM относится к контенту, изображающему откровенные плохие и страшные действия с участием ребенка.
Чтобы решить эту проблему, новая технология в iOS и iPadOS * позволит Apple обнаруживать известные изображения CSAM, хранящиеся в iCloud Photos. Это позволит Apple сообщать об этих случаях в Национальный центр пропавших без вести и эксплуатируемых детей (NCMEC). NCMEC действует как комплексный центр отчетности для CSAM и работает в сотрудничестве с правоохранительными органами США.

Дети в интернете
Дети в интернете

Расширенное руководство в Siri и Поиске

Apple также расширяет возможности Siri и Поиска, предоставляя дополнительные ресурсы, чтобы помочь детям и родителям оставаться в безопасности в Интернете и получать помощь в небезопасных ситуациях. Например, пользователям, которые спрашивают Siri, как они могут сообщить о CSAM или эксплуатации детей, будут указаны ресурсы, где и как отправить отчет.
Siri и Search также обновляются, чтобы вмешиваться, когда пользователи выполняют поиск запросов, связанных с CSAM. Эти вмешательства объяснят пользователям, что интерес к этой теме вреден и проблематичен.

Родитель должен защитить своих детей!!!
Родитель должен защитить своих детей!!!

Что думаете по этому поводу?
Можно ли это назвать защитой или цель совсем в другом?
Пишите ответы в комментария
👇


Понравилась статья - ставьте лайк 👍
И подписывайтесь на канал
Call Me Banana 💛

(Информация с официального сайта Apple)

С подпиской рекламы не будет

Подключите Дзен Про за 159 ₽ в месяц