На днях Apple анонсировала систему CSAM, которая займется выявлением детской порнографии. Делать это она будет на iOS - автоматически сканируя фотографии пользователя. Если что найдет - доложит куда надо. Цель у CSAM достойная. А вот у методов нашлись противники. Во-первых, сами владельцы iPhone и iPad. Мало кому хочется, чтобы Apple просматривала личные снимки. Пусть даже с помощью алгоритма. Во-вторых, возмутились правозащитники по всему миру. Стало известно о появлении открытого письма Apple. Обращение подписали более 90 организаций по защите гражданских прав. Они просят Apple отказаться от внедрения CSAM. По простой причине: новинку в своих интересах используют власти многих стран. Они начнут давить на гиганта из Купертино, пытаясь расширить диапазон нежелательных изображений. Детской порнографией дело не ограничится. Apple станут заставлять - в том числе юридически - искать различные материалы. Например, фото, выставляющие крупных политиков в негативном свете. Или картинки, связа
Правозащитные организации выступили против сканирования фотографий на iPhone
31 августа 202131 авг 2021
18
~1 мин