Eu estive pesquisando algoritmos de detecção de marcadores para usar com um aplicativo baseado em kinect, e a maior parte do trabalho que consegui encontrar é obviamente focada na detecção de recursos em imagens 'normais'.
No entanto, o hardware do kinect fornece (essencialmente, depois que você ajusta) um valor de profundidade de 11 bits por pixel.
Essa imagem de profundidade também possui vários artefatos visuais, a partir das sombras projetadas nas bordas dos objetos (veja, por exemplo, a forte borda preta deste vídeo http://www.youtube.com/watch?v=-q8rRk8Iqww&feature=related ).
Enquanto algumas técnicas tradicionais de visão de máquina (por exemplo, detecção de borda) funcionam bem com isso, outras não, e parece que há pouca informação na rede discutindo isso.
Como um exemplo simples, o uso do valor de profundidade torna trivial detectar a orientação de um bloco de marcadores depois que você o localiza.
Então, alguém já viu discussões / documentos / etc. que cobrem o processamento de uma imagem em profundidade para detecção de recursos?
Alguém pode recomendar um bom algoritmo para detectar marcadores de "profundidade" (efetivamente blocos de origami em vez de marcadores de preto e branco)?
O que eu fiz até agora foi experimentação ad-hoc usando opencv para processar as imagens, mas isso não é nem perto nem estável nem rápido o suficiente.
Se você vincular a um produto comercial de visão de máquina sem algum tipo de avaliação, mencione na sua resposta por que você acha que é apropriado.