O vídeo oferece um vislumbre do desempenho de rastreamento e oclusão manual do Apple Vision Pro

O vídeo oferece um vislumbre do desempenho de rastreamento e oclusão manual do Apple Vision Pro

O vídeo oferece uma visão do desempenho de rastreamento manual e oclusão do Apple Vision Pro PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Um vídeo postado por um desenvolvedor do Vision Pro parece mostrar os níveis atuais de rastreamento manual e desempenho de oclusão que o novo fone de ouvido da Apple é capaz.

Apple Visão Profissional, com lançamento previsto para os próximos meses, usará o rastreamento manual como método de entrada principal. Embora as interações no nível do sistema combinem o rastreamento manual com o rastreamento ocular para uma modalidade de “olhar e tocar”, os desenvolvedores também podem criar aplicativos que permitem aos usuários interagir diretamente com os aplicativos usando as mãos.

O rastreamento manual no Vision Pro pode ser dividido em dois recursos distintos: ‘rastreamento manual’ e ‘oclusão manual’.

O rastreamento manual é o modelo 3D estimado da mão, suas articulações e a posição das pontas dos dedos. Este modelo é usado para determinar quando os objetos são tocados, agarrados e interagidos.

A oclusão manual trata de como o sistema sobrepõe sua mão real ao conteúdo virtual. Em vez de desenhar um modelo 3D de uma mão virtual na cena, o Vision Pro corta a imagem de suas mãos reais para mostrá-las na cena. Fazer isso adiciona outra camada de realismo ao conteúdo virtual, porque você pode ver suas próprias mãos únicas.

Um desenvolvedor que está construindo o Vision Pro usando Unity postou um vídeo que dá uma visão clara do rastreamento manual e da oclusão.

No vídeo acima, os ponteiros reais mostram o sistema de oclusão em ação, enquanto os pontos verdes mostram a posição 3D estimada da mão.

Podemos ver que a oclusão das mãos é muito boa, mas não perfeita; quando cercado inteiramente por conteúdo virtual e se movendo rapidamente, você pode ver alguns recortes nas bordas da mão.

Enquanto isso, a posição real de rastreamento da mão está ainda mais atrasada em relação à oclusão da mão, algo em torno de 100–200ms atrás. No entanto, não podemos determinar a verdadeira latência do rastreamento de mão do Vision Pro, porque só temos uma visão das mãos de rastreamento de oclusão para compará-la (que terão alguma latência em relação às mãos reais).

Nesse contexto, o vídeo vem de uma conversa com desenvolvedores do Unity dizendo que seus primeiros experimentos com o Vision Pro mostraram uma latência de rastreamento manual muito alta, aparentemente em comparação com os recursos de rastreamento manual mais recentes do Quest. Outros desenvolvedores do Unity concordaram que estavam vendo latência semelhante em seus próprios dispositivos Vision Pro.

No entanto, o vídeo em questão é uma integração de rastreamento manual dentro de um aplicativo Unity, o que significa que o desempenho e a latência do rastreamento manual podem ter fatores adicionais relacionados ao Unity que não estão presentes ao usar as ferramentas de desenvolvimento Vision Pro originais da Apple. E considerando que o fone de ouvido ainda não foi lançado e essas ferramentas ainda estão em desenvolvimento, poderemos ver melhorias adicionais quando o fone de ouvido chegar às lojas.

Carimbo de hora:

Mais de Estrada para VR