Eu sou um cara novo em processamento de imagens e visão computacional, então essa pergunta pode ser estúpida para você.
Acabei de aprender alguns algoritmos de detecção e descrição de recursos, como Harris, Hessian, SIFT, SURF , eles processam imagens para descobrir esses pontos - chave e depois calculam um descritor para cada um, o descritor será usado para a correspondência de recursos.
Eu tentei o SIFT e o SURF, descobrindo que eles não são tão robustos quanto eu pensava, já que para 2 imagens (uma é girada e afinada um pouco), elas não combinam bem com os recursos, entre quase 100 pontos, apenas 10 partidas são boas.
Então eu me pergunto
Para que podemos usar esses algoritmos de detecção de recursos na prática? Existem algoritmos mais robustos para detecção e correspondência de recursos? Ou SIFT e SURF já é bom, só preciso refiná-lo para uso posterior?
Outro problema é que eu pensei que esses algoritmos não são exatamente para aplicação em tempo real (sem considerar a implementação de vários núcleos), mas existem alguns produtos comerciais (como o Kinect) que funcionam e respondem em tempo real! Presumo que esses produtos também detectem e correspondam aos recursos do que veem , eles usam algoritmos como SIFT ? Como eles conseguiram detectar recursos tão bem?
Com meu conhecimento limitado, sei que a correspondência de recursos pode ser usada para descobrir os mesmos objetos em duas imagens ou estimar homografias, mas qualquer outro objetivo para a correspondência de recursos?