Ссылаясь на источник, знакомый с новыми айфонами от Apple, компания "Fast" пишет, что компания Apple представит с задней стороны матрицу состоящую из 3D-сенсоров. Apple планирует купить лазерные компоненты для этого массива у калифорнийской компании Lumentum, у которой она уже покупает фронтальные лазеры TrueDepth, которые Apple устанавливает в свои современные iPhone.
Источник источник сообщает о том, что инженеры Apple работают над задней 3D-камерой уже два года, и в настоящее время ее планируется включить по крайней мере в одну модель чуть позже в этом году. Однако сроки все равно могут измениться.
Не только Apple включает эту функцию в свои флагманские телефоны 2020 года. Новые Galaxy S20+ и S20 Ultra от Samsung, анонсированные только в прошлом месяце, имеют задние "датчики времени полета" (ToF). Они используются для живого фокуса (который является дополнительным эффектом размытия на фотографиях) и быстрого измерения (которое позволяет пользователям измерять объекты перед ними).
Однако Apple добилась гораздо большего прогресса в разработке API и инструментов для сторонних разработчиков и своих собственных программных команд, чтобы использовать их для создания новые возможности и функции.
Apple представила аналогичный фронтальный массив TrueDepth в iPhone X в 2017 году. Его ключевая функция - Face ID, который сканирует лицо пользователя, чтобы аутентифицировать его, прежде чем разблокировать доступ к персонализированным файлам и сервисам на устройстве. Он также используется для Animoji и Memoji, анимированных аватаров, используемых некоторыми пользователями в приложении Messages.
У этой технологии есть огромный потенциал, который в значительной степени остается неиспользованным. Apple предоставила разработчикам инструменты, необходимые для использования функции TrueDepth в своих приложениях. Там было несколько приложений, но они в основном были трюками и играми, такими как радуга Натана Гиттера.
Apple может надеяться, что добавление этих датчиков в заднюю часть устройства вдохновит разработчиков для создания новые, более полезных приложений.
Генеральный директор Apple Тим Кук ранее заявил, что он считает, что дополненная реальность в какой-то момент станет переломным моментом сродни появлению App Store, и было много свидетельств того, что компания работала внутри компании над продуктом AR glasses. Ранее на этой неделе 9to5Mac заявил, что обнаружил доказательства нового AR-приложения в утечке кода iOS 14, а также признаки того, что задний датчик ToF также появится в новых моделях iPad Pro. Приложение позволит пользователям получать оперативную информацию о продуктах и других объектах в пространстве вокруг них и будет использоваться как в магазинах Apple, так и в местах расположения Starbucks.
До этого момента AR-приложения на iPhone полагались на разницу глубин между несколькими традиционными камерами на задней панели новых iPhone для обработки глубины, но это не так точно, как то, что позволяет эта новая матрица датчиков. Цитируемый в статье Fast Company, вице-президент Lumentum Андре Вонг говорит, что AR-приложения не взлетели в огромном масштабе отчасти из-за отсутствия этой возможности глубинного зондирования и того, что это означает для качества опыта:
Тем временем, Apple, похоже, по-прежнему сосредоточена на AR, создавая как аппаратные, так и программные функции и технологии, которые позволяют разработчикам экспериментировать и привносить новые идеи в App Store. Как мы уже писали в нашем объяснителе ARKit 2, это долгая игра: для быстрого внедрения AR для продукта Glass сторонними разработчиками потребуется обширный, усовершенствованный набор API и инструментов. Создание всего этого сейчас на заведомо ущербной для этой цели платформе iPhone означало бы, что Apple может начать работать, когда и если ее очки наконец выйдут на рынок.
А тем временем новые задние датчики, скорее всего, позволят использовать некоторые новые функции камеры, которые являются главным полем битвы в гонке вооружений между Apple и ее конкурентами на Android, такими как Samsung.