Para ter uma ideia da matriz de covariância - sem entrar nos detalhes da matemática aqui - é melhor começar com uma matriz 2x2. Lembre-se, então, que a matriz de covariância é uma extensão do conceito de variação no caso multivariado. No caso 1D, variância é uma estatística para uma única variável aleatória. Se sua variável aleatória possui uma distribuição gaussiana com média zero, sua variância pode definir com precisão a função de densidade de probabilidade.
Agora, se você estender isso para duas variáveis em vez de uma, poderá diferenciar entre dois casos. Se suas duas variáveis são independentes, o que significa que o resultado de um valor não tem relação com o outro valor, é basicamente o mesmo que no caso 1D. Seu e sua σ y y dar a variância da x e y parte de sua variável aleatória, e σ x y será zero.σxxσyyxyσxy
Se suas variáveis são dependentes, isso é diferente. Dependente significa que existe uma relação entre o resultado de e y . Por exemplo, você pode ter que sempre que x é positivo, y é geralmente mais provável que também seja positivo. Isso é dado pelo seu valor de covariância σ x y .xyxyσxy
Dar um exemplo para um robô em um caso 2D sem orientação é um pouco artificial, mas digamos que você tenha um componente aleatório ao longo da direção de deslocamento no eixo e você saiba que esse componente também gera uma deriva no seu eixo lateral ( y ) Pode ser, por exemplo, uma roda defeituosa. Isso resultará em uma elipse de incerteza rotacionada. Agora, por exemplo, quando mais tarde você tiver algo que mede sua posição x real , é possível estimar a distribuição da incerteza no seu componente y .xyxy
Um exemplo mais relevante é o caso 3D, onde geralmente você tem uma incerteza diferente ao longo da direção transversal em comparação à direção lateral. Quando você gira o seu sistema (alterando ), isso também gira sua elipse de incerteza. Observe que a representação real geralmente tem alguma forma de banana e o gaussiano é apenas uma aproximação. No caso EKF, é uma linearização em torno da média.θ
Uma maneira realmente boa de visualizar isso é usar o conceito da elipse da incerteza. Ele mostra basicamente o limite de para uma distribuição gaussiana multivariada e pode ser usado para visualizar uma matriz de covariância. Uma pesquisa rápida trouxe essa demonstração, que também fornecerá algumas dicas adicionais sobre como a covariância é construída. Em essência, as entradas diagonais definem as extensões do eixo, enquanto as entradas fora da diagonal estão relacionadas à rotação de toda a elipse.1σ
Isso também é verdade no caso 3D. Eu adoraria ficar mais matemático aqui, mas talvez algum tempo depois.