Бренд Apple планирует создать функцию, которая сможет сканировать медиатеку и хранящиеся на iCloud фотографии пользователей. Об этом сообщает Financial Times. Программное обеспечение будет распознавать насилие над детьми на фотографиях.
Новая система будет проверять снимок на возможное наличие откровенных сцен с детьми, жестокости над детьми; размывать откровенные снимки в сообщениях ребёнку, а также предупреждать других пользователей об отправке таких изображений.
По сведениям Financial Times, компания Apple сообщит о введении новой технологии сканирования изображений под названием neuralMatch уже на этой неделе. Если алгоритм определит, что у владельца iPhone в медиатеке содержатся непозволительные изображения, она предупредит об этом сотрудников Apple. Каждая фотография, которая загружается в iCloud, получит метку, указывающую на подозрительность изображения. При большом наличии сомнительных снимков и их расшифровке, Apple могут отправить жалобу в органы безопасности.
О том, что Apple собирается запустить эту опцию, также заявил доцент Института информационной безопасности Джонса Хопкинса Мэтью Грин, он отмечает, что это «неудачная идея». «Это средство может оказаться удобным для выявления насилия над детьми в смартфонах. Но подумайте, что он может совершить в руках авторитарного государства?» — написал Грин в своем блоге.
Также он заметил, что функция может быть ненадёжной и привести к ложным срабатываниям. Если такой инструмент попадёт в руки преступников, то они могут использовать его против пользователя, выдавая снимки за незаконные. Кроме того, такая ситуация с Apple может оказать давление на другие международные компании, которым также придётся внедрять новую технологию по распознаванию насилия над детьми.
?? А как вы относитесь к подобной новости? Нужна ли такая функция по сканированию фотографий на предмет жестокости для пользователей iPhone? Поможет ли она выявить преступников среди пользователей? Хотели бы, чтобы новая опция появилась в вашем смартфоне или считаете, что это нарушение личных границ?