Perguntas com a marcação «eigenvalues»

Para questões envolvendo cálculo ou interpretação de autovalores ou autovetores.


3
Por que a matriz de correlação precisa ser semi-definida positiva e o que significa ser ou não ser semi-definida positiva?
Tenho pesquisado o significado de propriedade semi-definida positiva de matrizes de correlação ou covariância. Estou procurando qualquer informação sobre Definição de semi-definição positiva; Suas propriedades importantes, implicações práticas; A consequência de ter determinante negativo, impacto na análise multivariada ou nos resultados de simulação, etc.

1
Se eu gerar uma matriz simétrica aleatória, qual é a chance de ela ser definitiva positiva?
Eu tive uma pergunta estranha quando estava experimentando algumas otimizações convexas. A questão é: Suponha que eu aleatoriamente (digamos distribuição normal padrão) gere uma matriz simétrica (por exemplo, eu gere matriz triangular superior e preencha a metade inferior para garantir que seja simétrica), qual é a chance de ser uma …





1
Explicar como o `eigen` ajuda a inverter uma matriz
Minha pergunta se refere a uma técnica de computação explorada em geoR:::.negloglik.GRFou geoR:::solve.geoR. Em uma configuração linear modelo misto: onde e são os efeitos fixos e aleatórios, respectivamente. Além disso,β b Σ = cov ( Y )Y=Xβ+Zb+eY=Xβ+Zb+e Y=X\beta+Zb+e ββ\betabbbΣ=cov(Y)Σ=cov(Y)\Sigma=\text{cov}(Y) Ao estimar os efeitos, é necessário calcular que normalmente pode ser …

1
Por que as decomposições de eigen e svd de uma matriz de covariância baseadas em dados esparsos estão produzindo resultados diferentes?
Estou tentando decompor uma matriz de covariância com base em um conjunto de dados esparsos / gappy. Estou percebendo que a soma do lambda (variação explicada), conforme calculada svd, está sendo amplificada com dados cada vez mais escassos. Sem lacunas, svde eigenproduz os mesmos resultados. Isso não parece acontecer com …
12 r  svd  eigenvalues 


1
Confusos sobre a explicação visual dos vetores próprios: como os conjuntos de dados visualmente diferentes podem ter os mesmos vetores próprios?
Muitos livros didáticos de estatística fornecem uma ilustração intuitiva de quais são os vetores próprios de uma matriz de covariância: Os vetores u e z formam os vetores próprios (bem, eigenaxes). Isso faz sentido. Mas a única coisa que me confunde é que extraímos autovetores da matriz de correlação , …


2
Por que o PCA maximiza a variação total da projeção?
Christopher Bishop escreve em seu livro Pattern Recognition and Machine Learning uma prova de que cada componente principal consecutivo maximiza a variação da projeção para uma dimensão, depois que os dados foram projetados no espaço ortogonal aos componentes selecionados anteriormente. Outros mostram provas semelhantes. No entanto, isso prova apenas que …


2
Por que não consigo obter um SVD válido de X por decomposição de autovalor de XX 'e X'X?
Estou tentando fazer SVD manualmente: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) Mas a última linha não retorna m. Por quê? Parece ter algo a ver com os sinais desses autovetores ... Ou entendi mal o procedimento?
9 r  svd  eigenvalues 

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.