Interpretação dos autovalores do Hessiano inverso em um rastreador KLT


12

Sou estudante de mestrado, preparando um seminário em visão computacional. Entre os tópicos está o rastreador Kanade-Lucas-Tomasi (KLT), conforme descrito em

J. Shi, C. Tomasi, "Bons recursos para rastrear" . Processo CVPR '94.

Aqui está um recurso da Web que estou usando para entender o rastreador KLT. Preciso de ajuda com a matemática, pois estou um pouco enferrujado em álgebra linear e não tenho experiência anterior com visão computacional.

Nesta fórmula para (etapa 5 no resumo), observe o Hessiano inverso:Δp

Δp=H-1Σx[EuWp]T[T(x)-Eu(W(x;p))]

No artigo, boas características para rastrear são definidas como aquelas em que a soma das matrizes inversas de Hessian tem grandes valores próprios semelhantes: . Eu não conseguia entender como e de onde isso é derivado, matematicamente.min(λ1,λ2)>threshoeud

A intuição é que isso representa um canto; Entenda isso. O que isso tem a ver com autovalores? Espero que, se os valores do Hessian forem baixos, não haverá mudança e não haverá um canto. Se eles são altos, é um canto. Alguém sabe como a intuição da cornualidade entra em jogo nos autovalores do Hessiano inverso para determinar Δp através de iterações do rastreador KLT?

Consegui encontrar recursos alegando que o Hessian inverso se correlaciona com a matriz de covariância da imagem. Além disso, a covariância da imagem indica a mudança de intensidade, e então faz sentido ... mas não consegui encontrar o que exatamente é uma matriz de covariância da imagem em relação a uma imagem, e não a um vetor ou a uma coleção de imagens.

Além disso, os autovalores têm significado na análise de componentes em princípio, e é por isso que recebo a ideia de uma matriz de covariância de imagens, mas não sei como aplicar isso ao Hessian, como geralmente é aplicado a uma imagem. O Hesse, tanto quanto eu entendo, é um matriz definindo as 2nd derivados de x , y , e x y em um determinado local ( x , y )2×2xyxy(x,y) .

Eu realmente aprecio a ajuda com isso, já que estou nele há mais de 3 dias, é apenas uma fórmula pequena e o tempo está se esgotando.


ok, eu consegui isso através de vários recursos da Web sobre curvatura principal, geomatria diferencial, número de condição da matriz (matriz bem condicionada). ainda preciso formular uma explicação razoável para o seminário. assim que o tiver, publico-o aqui ou vinculo esta página ao seminário.

Respostas:


5

Pense neles como termos de suavidade 2D.
Quanto mais suave o patch, menor a classificação da matriz e mais próxima a matriz está de ser singular.

Em uma aresta reta (não em um canto), apenas um valor próprio será grande.
Em uma esquina, ambos serão grandes.

Usar valores próprios significa que o ângulo da aresta não é um fator e, em qualquer ângulo, uma aresta dará apenas um grande ev


Obrigado pela sua resposta. Encontrei muitos recursos dando intuições semelhantes e discutindo o problema de abertura. a intuição é e foi clara. minha pergunta era de natureza mais matemática e, uma vez que encontrei a resposta, ficou muito mais simples. apenas propriedades básicas da matriz. autovalores semelhantes significam que a matriz está bem condicionada e o autovalor máximo é limitado; portanto, fornecer um limite inferior torna os autovalores semelhantes. além disso, os autovalores se correlacionam com as principais curvaturas do hessiano. esta é a informação que eu estava procurando na época.

reli sua resposta e acho o comentário sobre os autovalores e o ângulo perspicaz. obrigado por compartilhar isso comigo.

Você deve marcá-lo como "Respondido" então.
Adi Shavit
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.