Por que RP não é uma projeção sob essa definição?
Michael Mahoney escreve em suas notas de aula que depende de como o PR é construído , se o PR é ou não uma projeção no sentido algébrico linear tradicional. Isso ele faz nos terceiro e quarto pontos:
Terceiro, se os vetores aleatórios fossem exatamente ortogonais (como realmente eram nas construções JL originais), teríamos que a projeção JL fosse uma projeção ortogonal
...
mas, embora isso seja falso para Gaussianos, { ± } variáveis aleatórias e a maioria das outras construções, pode-se provar que os vetores resultantes têm aproximadamente o comprimento unitário e aproximadamente ortogonais
...
isso é "bom o suficiente".
Portanto, você poderia fazer, principalmente, a projeção aleatória com uma construção diferente, limitada a matrizes ortogonais (embora não seja necessária). Veja, por exemplo, o trabalho original:
Johnson, William B. e Joram Lindenstrauss. "Extensões de mapeamentos de Lipschitz em um espaço de Hilbert." Matemática contemporânea 26.189-206 (1984): 1.
... se alguém escolher aleatoriamente uma classificação k projeção ortogonal em eun2
...
Para tornar isso preciso, deixamos Q ser a projeção nas primeiras coordenadas k de eun2 e deixamos que σ seja a medida de Haar normalizada em O ( n ) , o grupo ortogonal em eun2 . Em seguida, a variável aleatória f: ( O ( n ) , σ) → L ( ln2)
definida por f( u ) = U⋆Q U
determina a noção de uma " projeção de classificação aleatória k ".
A entrada da Wikipedia descreve a projeção aleatória dessa maneira (o mesmo é mencionado nas notas de aula nas páginas 10 e 11)
https://en.wikipedia.org/wiki/Random_projection#Gaussian_random_projection
A primeira linha é um vetor de unidade aleatória escolhido uniformemente de Sd- 1 . A segunda linha é um vetor de unidade aleatória do espaço ortogonal à primeira linha, a terceira linha é um vetor de unidade aleatória do espaço ortogonal às duas primeiras linhas e assim por diante.
Mas você geralmente não obtém essa ortogonalidade quando pega todas as entradas da matriz nas variáveis aleatórias e independentes da matriz com uma distribuição normal (como Whuber mencionou em seu comentário com uma conseqüência muito simples "se as colunas fossem sempre ortogonais, suas entradas poderiam não seja independente ").
A matriz de R e o produto, no caso de colunas ortonormais, pode ser vista como uma projecção, pois refere-se a uma matriz de projecção P= RTR . Isso é um pouco o mesmo que ver a regressão dos mínimos quadrados comuns como uma projeção. O produto b = RTx não é a projeção, mas fornece uma coordenada em um vetor base diferente. A projecção 'real' é x′= R b = RTR x , e a matriz de projecção é RTR .
A matriz de projecção P= RTR necessita de ser o operador identidade no subespaço você que é a gama da projecção (ver as propriedades mencionadas na página Wikipedia). Ou, diferentemente, ele precisa ter os autovalores 1 e 0, de modo que o subespaço para o qual é a matriz de identidade seja o intervalo dos vetores próprios associados aos autovalores 1. Com entradas de matriz aleatórias, você não obterá essa propriedade. Este é o segundo ponto nas notas da aula
... parece "uma matriz ortogonal de várias maneiras ... o r a n ge ( PTP) é um subespaço uniformemente distribuído ... mas os valores próprios não estão em { 0 , 1 } .
note que nesta citação a matriz P se refere à matriz R na pergunta e não à matriz de projeção P= RTR que está implícita na matriz R
Portanto, a projeção aleatória por diferentes construções, como o uso de entradas aleatórias na matriz, não é exatamente igual a uma projeção ortogonal. Mas é computacionalmente mais simples e, de acordo com Michael Mahoney, é "bom o suficiente".