Perguntas com a marcação «pca»

A análise de componentes principais (PCA) é uma técnica linear de redução de dimensionalidade. Reduz um conjunto de dados multivariado a um conjunto menor de variáveis ​​construídas, preservando o máximo de informações (a maior variação possível). Essas variáveis, chamadas componentes principais, são combinações lineares das variáveis ​​de entrada.

1
Por que as funções R 'princomp' e 'prcomp' fornecem diferentes autovalores?
Você pode usar o conjunto de dados de decatlo {FactoMineR} para reproduzir isso. A questão é por que os autovalores computados diferem daqueles da matriz de covariância. Aqui estão os autovalores usando princomp: > library(FactoMineR);data(decathlon) > pr <- princomp(decathlon[1:10], cor=F) > pr$sd^2 Comp.1 Comp.2 Comp.3 Comp.4 Comp.5 Comp.6 1.348073e+02 2.293556e+01 …
22 r  pca 

2
O limite do estimador de regressão da crista de “variância unitária” quando
Considere a regressão de crista com uma restrição adicional exigindo que tenha soma unitária dos quadrados (equivalentemente, variação unitária); se necessário, pode-se supor que possui soma unitária dos quadrados:y^y^\hat{\mathbf y}yy\mathbf y β^∗λ=argmin{∥y−Xβ∥2+λ∥β∥2}s.t.∥Xβ∥2=1.β^λ∗=arg⁡min{‖y−Xβ‖2+λ‖β‖2}s.t.‖Xβ‖2=1.\hat{\boldsymbol\beta}_\lambda^* = \arg\min\Big\{\|\mathbf y - \mathbf X \boldsymbol \beta\|^2+\lambda\|\boldsymbol\beta\|^2\Big\} \:\:\text{s.t.}\:\: \|\mathbf X \boldsymbol\beta\|^2=1. Qual é o limite de β^∗λβ^λ∗\hat{\boldsymbol\beta}_\lambda^* …


3
Correlações estranhas nos resultados SVD de dados aleatórios; eles têm uma explicação matemática ou é um bug do LAPACK?
Observo um comportamento muito estranho no resultado SVD de dados aleatórios, que posso reproduzir tanto no Matlab quanto no R. Parece um problema numérico na biblioteca LAPACK; é isso? Eu desenho n=1000n=1000n=1000 amostras do Gaussiano k=2k=2k=2 dimensional com média zero e covariância de identidade: X∼N(0,I)X∼N(0,I)X\sim \mathcal N (0, \mathbf I) …


2
O PCA em numpy e sklearn produz resultados diferentes
Estou entendendo algo errado. Este é o meu código usando o sklearn import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D from sklearn import decomposition from sklearn import datasets from sklearn.preprocessing import StandardScaler pca = decomposition.PCA(n_components=3) x = np.array([ [0.387,4878, 5.42], [0.723,12104,5.25], [1,12756,5.52], [1.524,6787,3.94], ]) pca.fit_transform(x) Resultado: …

4
Como projetar um novo vetor no espaço PCA?
Depois de executar a análise de componentes principais (PCA), quero projetar um novo vetor no espaço do PCA (ou seja, encontrar suas coordenadas no sistema de coordenadas do PCA). Eu calculei o PCA na linguagem R usando prcomp. Agora eu devo poder multiplicar meu vetor pela matriz de rotação PCA. …
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

2
O PCA pode ser aplicado para dados de séries temporais?
Entendo que a Análise de Componentes Principais (PCA) pode ser aplicada basicamente para dados de seção transversal. O PCA pode ser usado para dados de séries temporais efetivamente, especificando o ano como variável de série temporal e executando o PCA normalmente? Descobri que o PCA dinâmico funciona para dados do …
21 time-series  pca 

1
O que é o "efeito ferradura" e / ou o "efeito arco" na análise PCA / correspondência?
Existem muitas técnicas em estatísticas ecológicas para análise exploratória de dados multidimensionais. Essas são chamadas técnicas de 'ordenação'. Muitos são iguais ou estão intimamente relacionados a técnicas comuns em outras partes da estatística. Talvez o exemplo prototípico seja a análise de componentes principais (PCA). Os ecologistas podem usar o PCA …

2
Existe alguma vantagem do SVD sobre o PCA?
Sei como calcular matematicamente PCA e SVD e sei que ambos podem ser aplicados à regressão de mínimos quadrados lineares. A principal vantagem do SVD matematicamente parece ser que ele pode ser aplicado a matrizes não quadradas. Ambos focam na decomposição da matrizAlém da vantagem do SVD mencionada, existem vantagens …
20 pca  least-squares  svd 

2
Métodos para calcular pontuações fatoriais, e qual é a matriz do “coeficiente de pontuação” na análise PCA ou fatorial?
De acordo com meu entendimento, no PCA baseado em correlações, obtemos cargas de fator (= componente principal neste caso) que nada mais são do que correlações entre variáveis ​​e fatores. Agora, quando preciso gerar pontuações fatoriais no SPSS, posso obter diretamente pontuações fatoriais de cada respondente para cada fator. Também …

6
PCA de dados não gaussianos
Tenho algumas perguntas rápidas sobre o PCA: O PCA assume que o conjunto de dados é gaussiano? O que acontece quando aplico um PCA a dados inerentemente não lineares? Dado um conjunto de dados, o processo deve primeiro normalizar a média, definir a variação para 1, obter um SVD, reduzir …
20 pca  svd 


4
Quais são os valores corretos para precisão e rechamada em casos extremos?
Precisão é definida como: p = true positives / (true positives + false positives) É verdade que, como true positivese false positivesabordagem 0, a precisão se aproxima de 1? Mesma pergunta para recall: r = true positives / (true positives + false negatives) No momento, estou implementando um teste estatístico …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 


Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.