Apple делает первый шаг к реализации запланированной «безопасности общения» для детей. В iOS 18.2 изображения обнаженной натуры должны автоматически скрываться или размываться, говорится на странице поддержки.
Фото: Apple Для этого используется машинное обучение. Контент обрабатывается непосредственно на iPhone, iPad, Mac или Apple Watch. Если обнаружено обнаженное изображение или видео, оно будет заблюрено. Проверяются такие приложения, как «Сообщения», AirDrop, «Контакты» и видеосообщения FaceTime.
Изображения обнаженной натуры автоматически распознаются и скрываются. Фото: Apple Если человек захочет просмотреть картинку или видео с обнаженной натурой, например, в приложении «Фото», появится соответствующее предупреждение. Если пользователь попытается поделиться конфиденциальным контентом (даже в сторонних приложениях), будет отображено предупреждение. В нем Apple объясняет, почему контент может быть неприемлемым.
Если дети до 13 лет хотят просмотреть или отправить конфиденциальный контент, им необходимо ввести код доступа. Это делается для того, чтобы взрослые видели то, чем делятся или смотрят дети. Новые функции первоначально будут представлены в iOS 18, iPadOS 18, macOS Sequoia и VisionOS 2.
Сообщается, что новые функции первоначально будут развернуты в Австралии, но постепенно станут доступны и в других регионах. Новые законы о защите детей в Австралии требуют, среди прочего, от крупных технологических компаний расследовать случаи жестокого обращения с детьми. Однако это применимо только в том случае, если «технически возможно» продолжать гарантировать сквозное шифрование, пишет The Guardian.
В 2022 году Apple попыталась более тщательно сканировать контент iCloud на предмет фотографий и видео, демонстрирующих жесткое обращение с детьми. Apple отказалась от этих планов из соображений конфиденциальности.