Найти в Дзене

Новая функция Live Captions в Vision Pro может проложить путь к переводу в реальном времени

Apple объявила, что представляет в Vision Pro множество специальных возможностей, в том числе Live Captions для глухих и слабослышащих. Это, безусловно, кажется важным первым шагом на пути к оснащению устройства функцией перевода в реальном времени в какой-то момент. Обновление VisionOS, которое, как сообщается, выйдет позднее в этом году, также добавит настраиваемые субтитры для Apple Immersive Video и поддержку слуховых аппаратов «Сделано для iPhone» и кохлеарных слуховых процессоров. Кроме того, специальные возможности будут включать в себя опции «Уменьшение прозрачности», «Умное инвертирование» и «Приглушение мигающего света» для пользователей со слабым зрением или тех, кто чувствителен к яркому свету и миганию. Поскольку обновление является общесистемным, такие функции, как Live Captions, позволят пользователям следить за разговорными диалогами в живых разговорах, а также за звуком из всех приложений, таких как FaceTime, или потоковым контентом, который еще не имеет субтитров. Меж

Apple объявила, что представляет в Vision Pro множество специальных возможностей, в том числе Live Captions для глухих и слабослышащих. Это, безусловно, кажется важным первым шагом на пути к оснащению устройства функцией перевода в реальном времени в какой-то момент.

Обновление VisionOS, которое, как сообщается, выйдет позднее в этом году, также добавит настраиваемые субтитры для Apple Immersive Video и поддержку слуховых аппаратов «Сделано для iPhone» и кохлеарных слуховых процессоров. Кроме того, специальные возможности будут включать в себя опции «Уменьшение прозрачности», «Умное инвертирование» и «Приглушение мигающего света» для пользователей со слабым зрением или тех, кто чувствителен к яркому свету и миганию.

Поскольку обновление является общесистемным, такие функции, как Live Captions, позволят пользователям следить за разговорными диалогами в живых разговорах, а также за звуком из всех приложений, таких как FaceTime, или потоковым контентом, который еще не имеет субтитров.

Между тем, последняя демо-версия ChatGPT-4o (см. ниже) может быть знаком грядущих событий, поскольку она демонстрирует, насколько хорошим стал перевод в реальном времени — возможно, даже лучше, чем вы ожидали.

Если Apple решит реализовать такую функцию в ближайшем будущем, это может означать, что разговоры лицом к лицу вскоре будут иметь субтитры, как вы можете видеть по телевизору или в видеоиграх. Это также может позволить использовать контент, который еще не имеет субтитров, позволяя вам узнать последний эпизод этой турецкой мыльной оперы, футбольного матча итальянской серии B или даже понять, что на самом деле говорят шотландцы. Это не значит, что это было бы идеально, но гипотетически это могло бы быть реализовано прямо сейчас с некоторой степенью успеха.

Конечно, Apple не будет первой, кто выделит такую функцию, когда компания придет к этой идее. До того, как Google закрыл свои очки Project Iris AR, Google добавил перевод в реальном времени как важное дополнение, которое, по сути, делает то, что я описал выше.

Это следует из постоянного стремления Apple сделать Vision Pro, вероятно, одной из самых доступных гарнитур на рынке. Он уже включает голосовой ввод в дополнение к отслеживанию рук и глаз для удобного перемещения по пользовательскому интерфейсу, а также такие функции, как VoiceOver, масштабирование и цветовые фильтры для людей с плохим зрением. Другие специальные возможности включают Switch Control, Sound Actions и Dwell Control, которые, по словам Apple, помогают людям с ограниченными физическими возможностями.

Мир вашему дому)