se é observado matriz de dados e é variável latente, entãoY
Onde é a média dos dados observados, e é o erro / ruído gaussiano nos dados, e é chamado subespaço principal.ϵ W
Minha pergunta é: quando o PCA normal é usado, obteríamos um conjunto de autovetores ortonormais para os quais o seguinte é verdadeiro
Mas no PPCA, não é ortonormal nem autovetor. Então, como posso obter os principais componentes do ?W
Seguindo meu instinto, procurei ppca no MATLAB, onde me deparei com essa linha:
Na convergência, as colunas de W abrangem o subespaço, mas não são ortonormais. ppca obtém os coeficientes ortogonais, coeff, para os componentes por ortogonalização de W.
Eu modifiquei código PPCA um pouco para obter o W , ele correu e depois ortogonalização eu tive P de W .
Por que essa ortogonalização deu autovetores, ao longo dos quais a maioria das variações será vista?
Estou assumindo que a ortogonalização está me fornecendo um conjunto de vetores ortogonais / ortogonais que abrangem o subespaço principal, mas por que essa matriz resultante ortogonalizada é igual a eigenmatrix (eu sei que eigenmatrix em pca também ortonormal)? Posso assumir que o subespaço principal é estendido apenas por um conjunto exclusivo de vetores ortonormais? Nesse caso, ambos os resultados sempre coincidem.