Apple объявила подробности своего нового проекта, который должен активно бороться с распространением и хранением детской порнографии. Его новая система будет активно сканировать репозиторий американских пользователей и искать графические материалы, идентичные уже известному CSAM (материалы о сексуальном насилии над детьми). Если совпадение обнаружено, дело рассматривается сотрудником Apple и сообщается в соответствующие органы в случае нарушения закона.
Однако были также опасения, что эта функция может быть использована неправильно в будущем, например, для поиска неудобных политических выражений. Авторитарные правительства могут использовать эти технологии, чтобы шпионить за политически неблагополучными гражданами.
Apple заявила, что в новых версиях iOS и iPadOS, которые должны быть выпущены в конце этого года, будут «новые криптографические приложения, которые помогут ограничить распространение CSAM в Интернете, при этом сохраняя конфиденциальность пользователей».
Система работает путем сравнения изображений с базой данных известных фотографий сексуального насилия над детьми, составленной Национальным центром США по пропавшим и эксплуатируемым детям (NCMEC) и другими организациями по безопасности детей. Эти изображения переводятся в «хэши», числовые коды, которые можно «назначить» изображению на устройстве Apple.
Компания заявляет, что новая технология предлагает «значительные» преимущества в отношении конфиденциальности по сравнению с существующими технологиями, поскольку Apple узнает о фотографиях пользователей только при обнаружении подлинных подозрительных материалов.
Apple, чей важный и, прежде всего, разрекламированный девиз - защита конфиденциальности пользователей, выполняет свою функцию в не очень благоприятное время. Недавно было обнаружено, что очень мощное приложение безопасности проекта Pegasus, способное взламывать телефонные системы безопасности, использовалось авторитарными правительствами.