Недавно компания Apple сообщила о релизе расширенных настроек безопасности для детей. Новые функции появятся в iCloud Photo, iMessage, Siri и Поиске.
Компания планирует запустить функцию, которая будет сканировать полученные и отправленные в iMessage изображения на предмет наличия в них элементов сексуального насилия над детьми. Проверять будут только аккаунты, зарегистрированные на несовершеннолетних пользователей, которые подключены к сервису семейного доступа (Family Account).
Защита детей будет осуществляться в несколько шагов. Когда ребенок получит сообщение с нежелательным контентом, iMessage автоматически сделает картинку размытой. На экране телефона появится предупреждение о том, что за блюром — сенситивная информация, которую не обязательно открывать. Позже высветится уведомление, что родители также получат оповещение о нежелательном контенте на устройстве ребенка. Функция разработана таким образом, что у Apple не будет доступа ко всей переписке — только к изображениям. Такое же сканирование будут проходить фотографии, загруженные в iCloud.
Сканировать контент поручат искусственному интеллекту. Он будет изучать данные на основе базы Национального центра пропавших без вести и эксплуатируемых детей (NCMEC).
У некоторых придуманные Apple обновления вызывают опасения. Во-первых, неоднократно возникали случаи, когда искусственный интеллект не справлялся с задачей распознать степень опасности контента и считал опасными селфи, фото животных или произведения искусства. Во-вторых, автоматически компания получит доступ абсолютно ко всем фотографиям, которые пользователи сохраняют в iCloud, что противоречит настройкам конфиденциальности.
Функции будут доступны в обновленной версии программного обеспечения — iOS 15, iPadOS 15, watchOS 8 и macOS Monterey. По желанию родители смогут отключить проверку контента.
Читайте также:
Apple будет сканировать фото пользователей, чтобы выявить педофилов
Двойной агент: как у Apple воровали данные
За семью замками: что скрывают Apple, Netflix и Google