Em um curso de aprendizado de máquina, aprendi que um uso comum do PCA ( Análise de Componentes Principais ) é acelerar outros algoritmos de aprendizado de máquina. Por exemplo, imagine que você está treinando um modelo de regressão logística. Se você tiver um conjunto de treinamento para i de 1 a n e a dimensão do seu vetor x for muito grande (digamos, uma dimensão), você poderá usar o PCA para obter uma dimensão menor (digamos k dimensões) apresentam o vetor z. Em seguida, você pode treinar seu modelo de regressão logística no conjunto de treinamento ( z ( i ) , y ( i ) para i de 1 a n. Treinar esse modelo será mais rápido porque o vetor de recursos tem menos dimensões.
No entanto, não entendo por que você não pode reduzir a dimensão do vetor de seu recurso para k dimensões, escolhendo k de seus recursos aleatoriamente e eliminando o restante.
Os vetores z são combinações lineares dos seus vetores de recurso a. Como os vetores z estão confinados a uma superfície k-dimensional, você pode escrever os valores de recurso eliminados ak como uma função linear dos k valores de recurso restantes e, portanto, todos os z podem ser formados por combinações lineares de seus recursos k. Portanto, um modelo treinado em um conjunto de treinamento com recursos eliminados não deve ter o mesmo poder que um modelo treinado em um conjunto de treinamento cuja dimensão foi reduzida pelo PCA? Depende apenas do tipo de modelo e se depende de algum tipo de combinação linear?