Apple объявила, что внедряет технологию сканирования на базе нейронной сети для обнаружения материалов сексуального насилия над детьми (CSAM) во всех своих операционных системах. Новые контрмеры, разработанные «в сотрудничестве с экспертами по безопасности детей», явно нацелены на обнаружение существующих CSAM и сообщение о них правоохранительным органам. Кроме того, будут реализованы фильтры для блокировки материалов сексуального характера, отправляемых и получаемых через службы Apple ID для детей, такие как iMessage, а также инструменты отчетности для родителей и детей. Также будут перехватываться термины, связанные с CSAM, запрошенные через SiriSiri и iOS и функции поиска, интегрированные в macOS. Хотя Apple заявляет, что контент, потенциально нарушающий авторские права, будет оставаться исключительно на основе устройств и анализироваться на стороне клиента до тех пор, пока не будет достигнут неопределенный порог обнаруженного CSAM, защитники конфиденциальности публично заявили о св