Apple выложила записи докладов и исследовательских работ со своего воркшопа посвящённому конфиденциальности в машинном обучении (PPML), прошедшего в начале 2025 года. В течение двух дней сотрудники Apple и исследователи из университетов, Google, DeepMind и Microsoft обсуждали, как совместить развитие ИИ и защиту данных пользователей. Среди ключевых тем были: приватные модели обучения и статистика, атаки и безопасность, основы дифференциальной конфиденциальности, а также работа с фундаментальными моделями в условиях приватности. Apple представила несколько решений, например: Подобные шаги особенно важны на фоне критики в адрес индустрии ИИ. В июле Apple заявляла, что не обучает свои модели на данных без согласия правообладателей. А в августе стало известно, что стартап Perplexity, наоборот, обходит запреты вроде robots.txt, используя второй бот. Хотя Apple всё ещё полноценно не запустила Apple Intelligence и отстаёт от конкурентов, публикация подобных исследований показывает: компания п
Apple напомнила, что работает над безопасным ИИ — пусть и с опозданием
13 августа 202513 авг 2025
1
1 мин