Apple разрабатывает новую систему CSAM (Child Sexual Abuse Material), что в переводе материалы сексуального насилия над детьми. Данная система будет помогать как детям, так и их родителям избегать различный шоковый контент в iMessage и не только. В этой статье я постараюсь вам подробно описать работу функции и разъяснить, стоит ли паниковать по этому поводу.
Компания Apple всегда боролась за конфиденциальность пользователей, однако, с новой системой, компания сворачивает куда-то не туда. Но не всё так плохо, как вы могли себе представить. Программа CSAM будет состоять из двух частей: защита детей от шокирующего контента в iMessage, выявление насилия над детьми в медиатеке iCloud. Так же Apple обучит Siri выдавать помощь по таким вопросам. Теперь разберём каждый пункт отдельно.
iMessage
Встроенный мессенджер в iPhone получит функцию безопасного общения: iMessage будет предупреждать детей и их родителей при получении или отправке фотографий сексуального характера. Благодаря машинному обучению, шокирующие фотографии будут скрыты, а при попытке ребёнка их открыть, на родительский телефон придёт уведомление. Данная система очень полезная и вопросов к ней не возникает, но больше всего диссонанса в сети получила функция CSAM, обнаруживающая фотографии сексуального насилия над детьми в медиатеке iCloud.
Обнаружение CSAM
Данный механизм обнаружения вызвал огромные вопросы у пользователей iPhone. В США существует база пропавших без вести детей. На основе фотографий пропавших детей в базе, будет создаваться хеш-функция на основе криптографии. Данный код будет отправлен на серверы Apple, а функция будет сравнивать этот код с хешем ваших фотографий.
Однако, для обработки всех фотографий пользователей необходимы большие мощности, и компания Apple придумала решение: криптографические ключи будут создаваться прямо на вашем устройстве во время выгрузки фотографий в iCloud, данная технология будет называться NeuralHash. Проще говоря, технология будет сравнивать отпечатки ваших фотографий с базой на сервере.
Для более точного описания работы технологии хеширования воспользуюсь переводчиком и переведу официальную документацию:
Сначала изображение передается в сверточную нейронную сеть для создания N-мерного дескриптора с плавающей запятой. Во-вторых, дескриптор передается по схеме хэширования для преобразования чисел с плавающей запятой в M битов. Здесь M намного меньше, чем количество битов, необходимых для представления N чисел с плавающей запятой. NeuralHash достигает такого уровня сжатия и сохраняет достаточную информацию об изображении, чтобы совпадения и поиск в наборах изображений по-прежнему были успешными, а сжатие соответствовало требованиям к хранению и передаче.
Если во время сравнения хеш-сумм фотографий наберётся большое количество совпадений с базой пропавших детей, то данные будут переданы Apple для анализа, однако само изображение будет по прежднему зашифровано, будет доступна лишь секретная доля изображения для сверки данных.
Если специалисты в Apple находят сходства, то информация об изображении будет расшифрована и передана в правоохранительные органы, учётная запись будет заблокирована. Однако, у вас будет возможность подать аппеляцию.
Стоит ли волноваться?
И да и нет. Компанию Apple уже ловили на сотрудничестве с властями Китая. Таким способом могут ловить преступников, создать базу данных, никто не знает, каким образом правительство сможет распорядиться этими данными. Однако, данная функция пока доступна лишь в США, но её приход в другие страны лишь дело времени, да и эффективность функции под большим вопросом: злоумышленники могут просто перенести все данные на физический носитель. Apple разместила отчеты экспертов по безопасности с анализом данной функции, все полезные ссылки будут прикреплены ниже. Спасибо за просмотр данной статьи, обязательно напишите своё мнение по этому поводу в комментариях!