Perguntas com a marcação «lasso»

Um método de regularização para modelos de regressão que reduz os coeficientes em direção a zero, tornando alguns deles iguais a zero. Assim, o laço executa a seleção de recursos.



1
Como interpretar os resultados quando o cume e o laço executam bem separadamente, mas produzem coeficientes diferentes
Estou executando um modelo de regressão com Lasso e Ridge (para prever uma variável de resultado discreto variando de 0 a 5). Antes de executar o modelo, uso o SelectKBestmétodo de scikit-learnpara reduzir o conjunto de recursos de 250 para 25 . Sem uma seleção inicial de recursos, Lasso e …




2
Programação quadrática e laço
Estou tentando executar uma regressão de laço, que tem a seguinte forma: Minimizar em( Y - X w ) ′ ( Y - X w ) + λwww(Y−Xw)′(Y−Xw)+λ|w|1(Y−Xw)′(Y−Xw)+λ|w|1(Y - Xw)'(Y - Xw) + \lambda \;|w|_1 Dado a , fui aconselhado a encontrar o ideal com a ajuda da programação quadrática, …


1
Ridge e LASSO receberam uma estrutura de covariância?
Depois de ler o capítulo 3 nos Elementos de aprendizagem estatística (Hastie, Tibshrani & Friedman), perguntei-me se seria possível implementar os famosos métodos de encolhimento citados no título dessa pergunta, dada uma estrutura de covariância, ou seja, minimizar a (talvez mais geral ) quantidade ( y⃗ - Xβ⃗ )TV- 1( …

3
Quão defensável é escolher
Quando eu determino meu lambda através da validação cruzada, todos os coeficientes se tornam zero. Mas tenho algumas dicas da literatura de que alguns dos preditores devem definitivamente afetar o resultado. É besteira escolher arbitrariamente lambda para que haja a escassez que se deseja? Quero selecionar os 10 principais preditores …
11 lasso 


2
Pode aumentar quando
Se β∗=argminβ∥y−Xβ∥22+λ∥β∥1β∗=argminβ‖y−Xβ‖22+λ‖β‖1\beta^*=\mathrm{arg\,min}_{\beta} \|y-X\beta\|^2_2+\lambda\|\beta\|_1 , pode ∥β∗∥2‖β∗‖2\|\beta^*\|_2 aumentar quando λλ\lambda aumenta? Eu acho que isso é possível. Embora ∥β∗∥1‖β∗‖1\|\beta^*\|_1 não aumente quando λλ\lambda aumenta (minha prova ), ∥β∗∥2‖β∗‖2\|\beta^*\|_2 pode aumentar. A figura abaixo mostra uma possibilidade. Quando λλ\lambda aumenta, se β∗β∗\beta^* viaja (linearmente) de PPP para QQQ , então ∥β∗∥2‖β∗‖2\|\beta^*\|_2 aumenta …
11 lasso 

2
Soft-limiar vs. Lasso penalização
Estou tentando resumir o que entendi até agora na análise multivariada penalizada com conjuntos de dados de alta dimensão, e ainda luto para obter uma definição adequada da penalização de limiar suave versus penalização por Lasso (ou ).L1L1L_1 Mais precisamente, usei a regressão PLS esparsa para analisar a estrutura de …

1
Relação entre LASSO e
Meu entendimento da regressão do LASSO é que os coeficientes de regressão são selecionados para resolver o problema de minimização: minβ∥y−Xβ∥22 s.t.∥β∥1≤tminβ‖y−Xβ‖22 s.t.‖β‖1≤t\min_\beta \|y - X \beta\|_2^2 \ \\s.t. \|\beta\|_1 \leq t Na prática, isso é feito usando um multiplicador de Lagrange, tornando o problema para resolver minβ∥y−Xβ∥22+λ∥β∥1minβ‖y−Xβ‖22+λ‖β‖1\min_\beta \|y - …


Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.