Lembre-se de que a regressão de crista não pode zerar coeficientes; assim, você acaba incluindo todos os coeficientes no modelo, ou nenhum deles. Por outro lado, o LASSO realiza o encolhimento dos parâmetros e a seleção de variáveis automaticamente. Se algumas de suas covariáveis são altamente correlacionadas, você pode querer olhar para a Elastic Net [3] em vez do LASSO.
Eu pessoalmente recomendo usar o Garotte não negativo (NNG) [1], pois é consistente em termos de estimativa e seleção de variáveis [2]. Ao contrário do LASSO e da regressão de crista, o NNG requer uma estimativa inicial que é então reduzida em direção à origem. No artigo original, Breiman recomenda a solução de mínimos quadrados para a estimativa inicial (no entanto, você pode querer iniciar a pesquisa a partir de uma solução de regressão de crista e usar algo como GCV para selecionar o parâmetro de penalidade).
Em termos de software disponível, implementei o NNG original no MATLAB (com base no código FORTRAN original de Breiman). Você pode baixá-lo em:
http://www.emakalic.org/blog/wp-content/uploads/2010/04/nngarotte.zip
BTW, se você preferir uma solução bayesiana, verifique [4,5].
Referências:
[1] Breiman, L. Melhor Regressão de Subconjuntos Utilizando a Não-Negativa Garrote Technometrics, 1995, 37, 373-384
[2] Yuan, M. & Lin, Y. No estimador garrotte não negativo Journal of the Royal Statistical Society (Série B), 2007, 69, 143-161
[3] Zou, H. & Hastie, T. Regularização e seleção de variáveis através da rede elástica Journal of the Royal Statistical Society (Série B), 2005, 67, 301-320
[4] Park, T. & Casella, G. O jornal Bayesian Lasso da Associação Estatística Americana, 2008, 103, 681-686.
[5] Kyung, M .; Gill, J .; Ghosh, M. & Casella, G. Regressão Penalizada, Erros Padrão e Análise Bayesiana de Lassos Bayesian, 2010, 5, 369-412