banner

Notícias

Sep 24, 2023

Especificações completas, recursos e detalhes do Apple Vision Pro

Hoje, a Apple finalmente revelou o Vision Pro, seu "computador espacial" de $ 3.500 com lançamento em 2024. Aqui está um resumo de suas especificações e recursos anunciados.

O Vision Pro é um fone de ouvido ultra sofisticado com a mais alta resolução e a maioria dos sensores de um produto AR/VR. Ele apresenta novos recursos nunca antes lançados e seu visionOS repensa a linha entre 2D, AR e VR.

O Vision Pro possui uma estrutura de liga de alumínio personalizada que suporta uma placa frontal de vidro laminado curvada "formada tridimensionalmente" para obter um design fino.

O que mantém o Vision Pro relativamente leve é ​​a separação da bateria do fone de ouvido. Alguns outros fones de ouvido como o Meta Quest Pro e o Pico 4 têm a bateria na parte traseira da alça, mas o design da Apple o tira totalmente da cabeça com uma bateria externa conectada a um conector magnético à esquerda da faixa de cabeça.

A Apple afirma que a bateria externa durou 2 horas nas seguintes condições de teste:

Como alternativa, o Vision Pro pode ser usado perpetuamente conectando a bateria a uma fonte de alimentação USB-C. A Apple ainda não entrou em detalhes sobre quanta energia é necessária.

O Vision Pro possui um total de doze câmeras, um sensor TrueDepth, um sensor LiDAR e seis microfones.

Seis das doze câmeras estão sob o vidro frontal.

Dois deles fornecem cores de alta resolução para a visão de passagem do headset do mundo real, transmitindo "mais de um bilhão de pixels coloridos por segundo".

As outras quatro câmeras frontais são usadas para rastreamento posicional do fone de ouvido e provavelmente possuem lentes olho de peixe.

Uma das finalidades do sensor TrueDepth é o rastreamento manual. A Apple descreve a qualidade de rastreamento de mão como "tão precisa que libera completamente suas mãos da necessidade de controladores de hardware desajeitados".

O Vision Pro não possui nenhum tipo de controlador rastreado, embora suporte a reprodução de jogos tradicionais do iPad em uma tela virtual com um gamepad.

O sensor LiDAR é usado para realizar "mapeamento 3D em tempo real" do seu ambiente em conjunto com as outras câmeras frontais.

A Apple afirma que o Vision Pro tem uma "compreensão detalhada" de seus pisos, paredes, superfícies e móveis, que os aplicativos podem aproveitar. Um exemplo que a Apple deu foi objetos virtuais projetando sombras em mesas reais, mas isso apenas arranha a superfície do que deveria ser possível.

Duas câmeras voltadas para baixo rastreiam seu rosto, enquanto quatro câmeras IR internas ao lado delas rastreiam seus olhos, auxiliadas por um anel de iluminadores LED ao redor das lentes.

O rastreamento ocular do Vision Pro serve a três propósitos: autenticação, renderização foveated e dirigir seu avatar do FaceTime.

A Apple está chamando sua nova autenticação de digitalização de íris OpticID, seguindo o esquema de nomenclatura de TouchID e FaceID de seus outros dispositivos. OpticID é como você desbloqueia o Vision Pro e também funciona com compras do Apple Pay e preenchimento automático de senha. Assim como o TouchID e o FaceID, os dados biométricos que alimentam o OpticID são processados ​​no dispositivo por um processador Secure Enclave.

A renderização foveada é uma técnica em que apenas a pequena região da tela que seus olhos estão olhando no momento é renderizada em resolução total, liberando assim o desempenho, já que o restante é de resolução mais baixa. Os recursos de GPU liberados podem ser usados ​​para melhor desempenho, para aumentar a resolução de renderização ou para aumentar as configurações gráficas. Ele aproveita o fato de que nossos olhos veem apenas em alta resolução no centro da fóvea.

Por fim, o rastreamento ocular combina com as câmeras descendentes para rastrear suas expressões faciais em tempo real para conduzir seu FaceTime Persona, a versão da Apple de avatares fotorrealistas. A Meta tem mostrado pesquisas sobre isso há mais de quatro anos, mas parece que a Apple será a primeira a enviar - embora não com a mesma qualidade da pesquisa da Meta.

Para fundir a entrada de todas essas câmeras, sensores e microfones, a Apple desenvolveu um chip personalizado chamado R1.

A Apple afirma que o R1 "praticamente elimina o atraso, transmitindo novas imagens para os monitores em 12 milissegundos".

Para comparação, o fundador da startup francesa de fones de ouvido Lynx afirma que a latência de passagem do Meta Quest Pro é de 35 a 60 milissegundos. Não está claro se esta é uma comparação igual.

COMPARTILHAR