Modificação do laço para LARS


12

Estou tentando entender como o algoritmo Lars pode ser modificado para gerar o Lasso. Embora eu compreenda o LARS, não consigo ver a modificação do laço no artigo de Tibshirani et al. Em particular, não vejo por que a condição de sinal em que o sinal da coordenada diferente de zero deve concordar com o sinal da correlação atual. Alguém por favor pode me ajudar com isso. Acho que estou procurando uma prova matemática usando a condição KKT no problema original da norma L-1, ou seja, o Lasso. Muito obrigado!


Você está se referindo a Efron et al's stanford.edu/~hastie/Papers/LARS/LeastAngle_2002.pdf ? Isso prova isso no Lema 8 da seção 5. Ou estou entendendo mal sua pergunta?
Peter Ellis

1
Também não tenho certeza sobre a pergunta, mas, na verdade, o Lasso é uma simplificação do Lars: para o Lasso, você está procurando apenas correlações positivas entre as funções residuais atuais e as demais funções básicas, já que apenas correlações positivas levam a resultados positivos. coeficientes (~ não negativos).
Mr. White

Respostas:


2

Seja (tamanho n × p ) denotar um conjunto de entradas padronizadas, respostas centradas em y (tamanho n × 1 ), pesos de regressão β (tamanho p × 1 ) e λ > 0 a l 1Xn×pyn×1βp×1λ>0l1 coeficiente de penalização -norm.

O problema do LASSO então escreve

β=argminβ L(β,λ)L(β,λ)=yXβ22+λβ1

λ>0β(λ).

λβ

λ=2 sign(βa)XaT(yXβ),   aA

with A representing the set of active predictors.

Because λ must be positive (it is a penalisation coefficient), it is clear that the sign of βa (weight of any non-zero hence active predictor) should be the same than that of XaT(yXβ)=XaTr i.e. the correlation with the current regression residual.


1

@Mr._White provided a great intuitive explanation of the major difference between LARS and Lasso; the only point I would add is that lasso is (kind of) like a backward selection approach, knocking out a term at each step as long as a term exists for which of those ("normalized" over X×X) correlations exist. LARS keeps everything in there -- basically performing the lasso in every possible order. That does mean that in lasso, each iteration is dependent on which terms have already been removed.

Effron's implementation illustrates the differences vary well: lars.R in the source pkg for lars. Notice the update step of matrices X×X matrix and ζ starting at line 180, and the dropping of the terms for which ζmin<ζcurrent. I can imagine some weird situations arising from spaces A where the terms are unbalanced (x1 and x2 are very correlated but not with others, x2 with x3 but not with others, etc.) the selection order could be quite biased.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.