Atualmente, desenvolvo um ambiente de realidade virtual para uma plataforma de simulador de movimento grande (fisicamente) existente. O usuário pode sentar-se nessa plataforma de movimento e é acelerado e inclinado para induzir a sensação de movimento em um ambiente de simulador de carro de pesquisa. O rastreador posicional Oculus Rift já está montado na plataforma móvel na frente do usuário, da mesma forma que faria no seu PC.
O mecanismo 3D que atualmente uso é o Unity 5.3. Os ângulos de rotação e as acelerações lineares da plataforma já são alimentados no Unity. Os resultados não são, contudo, o que eu almejei. Embora a compensação de rotação funcione bem enquanto inclinamos a plataforma, uma vez que a velocidade angular chega a zero, o rastreador é redefinido sem ser chamado por mim ou disparar um evento que o fez. A compensação de aceleração linear sempre oscila em torno do verdadeiro ponto de repouso.
Eu já tentei usar a implementação nativa do Unity VR e também o plugin Oculus. No entanto, a fusão do sensor não está disponível neste nível. Os fóruns do Oculus têm muitos tópicos sobre esse problema, mas não encontrei nenhuma solução.
Existem alternativas que alguém possa tentar para usar o Oculus em uma plataforma móvel?
O que eu gostaria de fazer idealmente é subtrair o movimento induzido dos dados do sensor Oculus antes de continuar o processamento. Eu já considerei aplicar patches, por exemplo, LibOVR, mas também não encontrei nenhuma função útil relacionada à fusão de sensores.