Босс WhatsApp Уилл Каткарт обратился в Twitter с эмоциональным
сообщением.
Он пишет:
"Я прочитал информацию, которую Apple опубликовала вчера, и обеспокоен. Я думаю, что это неправильный подход и откат назад для частной жизни людей по всему миру.
Люди спрашивали, примем ли мы эту систему для WhatsApp. Ответ - нет."
Если у Apple есть план и готовящаяся функция безопасности по борьбе с распространением изображений сексуального насилия над детьми, это еще не значит, что все с ним согласны.
В пятницу босс WhatsApp Уилл Каткарт присоединился к хору критиков Apple, недвусмысленно заявив, что приложение для обмена сообщениями, принадлежащее Facebook, не будет использовать эту новую функцию после ее запуска. Затем Каткарт изложил свои опасения по поводу системы, основанной на машинном обучении.
"Это система наблюдения, созданная и управляемая Apple, которая может быть легко использована для сканирования частного контента на предмет того, что они или правительство решит контролировать", - написал Кэткарт в середине темы. "Страны, где продаются iPhone, будут по-разному определять, что является приемлемым".
Хотя позиция WhatsApp по поводу самой функции достаточно ясна, тема Каткарта в основном сосредоточена на выдвижении гипотетических сценариев, которые предполагают, что все может пойти не так как задумано. Он хочет знать, будет ли система использоваться в Китае, "что произойдет, когда" компании-шпионы воспользуются ею, и насколько она действительно защищена от ошибок.
Эта тема представляет собой эмоциональный призыв. Она не слишком полезна для тех, кто ищет информацию о том, почему заявление Apple вызвало недоумение. Кэткарт пересказывает некоторые основные тезисы критиков, но этот подход скорее провокационный, чем информативный.
Одна из частей предстоящего обновления безопасности использует запатентованную технологию NeuralHash, которая сканирует хэш каждого файла изображения по сути, подпись и сверяет его с хэшами известных материалов о насилии над детьми (CSAM). Все это происходит до того, как фотография попадает в iCloud Photos, и Apple не имеет права ничего делать или смотреть, если проверка хэша не вызывает тревоги.
Разумеется, подход, основанный на проверке хэша, небезупречен. Например, он не сможет поймать CSAM, которые не каталогизированы в базе данных. Мэтью Грин, эксперт по кибербезопасности и профессор Университета Джона Хопкинса, также указал на возможный риск того, что кто-то может использовать хэш файла CSAM внутри файла изображения, не относящегося к CSAM.
Обновление безопасности имеет и другую составляющую. В дополнение к проверке хэшей с помощью NeuralHash, Apple также представит функцию родительского контроля, которая сканирует изображения, отправленные через iMessage на детские аккаунты (то есть аккаунты, принадлежащие несовершеннолетним, указанным владельцами аккаунтов), на наличие материалов сексуального характера. Родители и опекуны, активировавшие эту функцию, получат уведомление, когда сработает сигнал тревоги Apple.
Фонд электронных рубежей (EFF) выпустил заявление с критикой предстоящего обновления вскоре после объявления Apple. Это подкрепленное доказательствами осуждение плана, которое дает гораздо более четкое представление о проблемах, на которые Каткарт туманно намекает в своей статье.
Существует разумная дискуссия о достоинствах и рисках плана Apple. Кроме того, WhatsApp имеет полное право высказать свои возражения и отказаться от использования этой функции. Но у вас, пользователя, который, возможно, просто хочет лучше разобраться в этом вопросе, прежде чем сформировать свое мнение, есть лучшие возможности для поиска нужной информации, чем запись в Twitter руководителя Facebook.
Будем ждать новостей от Apple о том, что будет дальше.