Como funciona uma pia de cozinha aleatória?


18

No ano passado, no NIPS 2017, Ali Rahimi e Ben Recht ganharam o prêmio do teste do tempo por seu artigo "Recursos Aleatórios para Máquinas de Kernel em Grande Escala", onde introduziram recursos aleatórios, posteriormente codificados como o algoritmo de pias de cozinha aleatórias. Como parte da divulgação de seu trabalho, eles mostraram que seu modelo poderia ser implementado em 5 linhas do matlab.

% Approximates Gaussian Process regression
%     with Gaussian kernel of variance gamma^2
% lambda: regularization parameter
% dataset: X is dxN, y is 1xN
% test: xtest is dx1
% D: dimensionality of random feature

% training
w = randn(D,d);
b = 2 * pi * rand(D, 1);
Z = cos(gamma * w * X + b * ones(1,N));

alpha = (lambda * eye(D) +Z * Z') \ (Z * y);

% testing
ztest = alpha' * cos(gamma * w * xtest + b);

Como o algoritmo acima aprende algo não está claro para mim. Como funciona uma pia de cozinha aleatória? Como ele aproxima os processos gaussianos e suporta máquinas vetoriais?

Editar

Relembrando a palestra de Rahimi, o termo pias de cozinha aleatórias não é introduzido no artigo pelo qual eles ganharam o prêmio, mas no final da trilogia de artigos que começam com "Recursos aleatórios para máquinas de kernel em grande escala". Os outros trabalhos são:

Rahimi, Ali e Benjamin Recht. "Aproximação uniforme de funções com bases aleatórias." Comunicação, Controle e Computação, 2008 46ª Conferência Anual da Allerton em. IEEE, 2008.

Rahimi, Ali e Benjamin Recht. "Soma ponderada de pias de cozinha aleatórias: substituindo minimização por randomização na aprendizagem." Avanços nos sistemas de processamento de informações neurais. 2009.

Eu acho que o trecho de código introduzido acima é uma especialização do Algoritmo 1 no último artigo.


Nem a palavra "afundar" nem o código que você cita aparecem no artigo vinculado. Está faltando uma referência?
Kodiologist

2
Você está certo, obrigado. Sem o contexto da palestra de 2017, a pergunta parece um pouco desconexa! Acho que a idéia foi desenvolvida no primeiro artigo, mas o termo pias de cozinha aleatórias só foi introduzido mais tarde. O trecho de código foi distribuído na sessão de pôsteres de 2007 para o jornal, aparentemente. Transcrevi da palestra de Rahimi no NIPS 2017.
MachineEpsilon

Respostas:


15

Pias de cozinha aleatórias (ou recursos aleatórios de Fourier) e outros métodos relacionados não se esforçam para realizar inferência, mas tentam reduzir o gargalo dos métodos de inferência baseados em kernel.

n×nO(n3)

Os recursos aleatórios de Fourier (Rehimi & Recht 2007) consideraram a criação de aproximações de baixa classificação dos núcleos invariantes por deslocamento, amostrando apenas um subconjunto aleatório dos componentes de Fourier dos núcleos. Como o espaço de Fourier é invariável ao deslocamento, essa propriedade foi preservada, mas agora um espaço Hilbert explícito e dimensional explícito do núcleo de reprodução foi formado pela união desses componentes de Fourier. O RKHS dimensional uma vez infinito é aproximado pelo kernel degenerado aproximado.

Notas sobre o snippet de código: existem alguns detalhes detalhados nas 5 linhas. O mais importante é que a função gaussiana também é uma função gaussiana no espaço de Fourier, apenas a variação é invertida. É por isso que eles estão amostrando a partir de randn e depois multiplicando por variação. Então eles produzem alfa, que é apenas um subprocedimento para encontrar o ztest. Basicamente, a previsão normal do kernel se parece,

ztest=K(xtest,x)(K(x,x)+λEu)-1 1y.

ztest=Φ(xtest)TΦ(x)(Φ(x)TΦ(x)+λEu)-1 1y.

Onde Φ() é o vetor de característica de Fourier aleatório avaliado.

Comentário lateral: Você deve usá-lo? A resposta não é clara, sim. Depende completamente do que você está modelando. O uso do espaço de Fourier não é necessariamente apropriado para núcleos invariantes não estacionários e sem deslocamento. Os caras nunca afirmaram que funcionaria nesse cenário, mas se você está apenas começando nessa área, às vezes as nuances não são óbvias.


5
Levei um segundo para perceber que a computação alfa aqui está resolvendo o problema de regressão de crista em X e y com o regularizador lambda. Se você vem de GPs, olhando para suas fórmulas, isso é óbvio, pois de um ângulo SVM é um pouco confuso. Sua "previsão normal do kernel" é um GP com adição de ruído, também conhecido como regressão do cume do kernel.
Andreas Mueller

11
@AndreasMueller sim, desculpe que esteja correto! Eu sou muito da comunidade GP, então às vezes esquecemos disso! Ainda bem que você tem o que eu quis dizer embora :)
j__

11
@j__, se você tiver tempo, tenho uma pergunta sobre os RFFs aqui: stats.stackexchange.com/questions/440633 . Parece que a resposta para minha pergunta é entender melhor o RKHS e o teorema do representador.
gwg 13/12/19
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.