Perguntas com a marcação «regularization»

Inclusão de restrições adicionais (normalmente uma penalidade por complexidade) no processo de ajuste do modelo. Usado para evitar o ajuste excessivo / aprimorar a precisão preditiva.




1
Regularização L2 vs encolhimento de efeitos aleatórios
Uma propriedade fundamental da regressão de efeitos aleatórios é que as estimativas de interceptação aleatória são "reduzidas" em direção à média geral da resposta em função da variação relativa de cada estimativa. ρJ=τ2/(τ2+σ2/nj).você^j= ρjy¯j+ ( 1 - ρj) y¯U^j=ρjy¯j+(1−ρj)y¯\hat{U}_j = \rho_j \bar{y}_j + (1-\rho_j)\bar{y} ondeρj= τ2/ ( τ2+ σ2/ nj) …



1
Regularização e de projecção para o
Eu estou tentando entender como funciona regularização em termos de projeções em um l∗l∗l_* bola, e projeção euclidiana para o simplex. Não sei ao certo o que queremos dizer quando projetamos o vetor de peso nas bolas ou .l 2l1l1l_1l2l2l_2 Eu posso entender o conceito de programa de regularização de …


2
Qual é o significado do caminho da regularização no LASSO ou em problemas de esparsidade relacionados?
Se selecionarmos valores diferentes do parâmetro , poderíamos obter soluções com diferentes níveis de escarsidade. Isso significa que o caminho da regularização é como selecionar as coordenadas que poderiam obter uma convergência mais rápida? Estou um pouco confuso, embora tenha ouvido falar sobre esparsidade com frequência. Além disso, você poderia …



1
Regularização de coletores usando o gráfico da Lapônia no SVM
Estou tentando implementar a regularização múltipla em máquinas de vetores de suporte (SVMs) no Matlab. Estou seguindo as instruções no artigo de Belkin et al. (2006), há a equação: f∗=argminf∈Hk∑li=1V(xi,yi,f)+γA∥f∥2A+γI∥f∥2If∗=argminf∈Hk∑i=1lV(xi,yi,f)+γA‖f‖A2+γI‖f‖I2f^{*} = \text{argmin}_{f \in H_k}\sum_{i=1}^{l}V\left(x_i,y_i,f\right)+\gamma_{A}\left\| f \right\|_{A}^{2}+\gamma_{I}\left\| f \right\|_{I}^{2} onde V é alguma função de perda e γAγA\gamma_A é o peso …


1
Regressão linear esparsa 0-norma e 1-norma
Temos uma resposta e preditoresY∈RnY∈RnY \in \Bbb R^nX=(x1,x2,⋯,xm)T∈Rn×mX=(x1,x2,⋯,xm)T∈Rn×mX = (x_1, x_2, \cdots, x_m)^T \in \Bbb R^{n \times m} O problema que queremos resolver é argmink∈Rm(∥Y−Xk∥22+λ∥k∥0)→k0argmink∈Rm(‖Y−Xk‖22+λ‖k‖0)→k0\text{argmin}_{k \in \Bbb R^{m}} (\Vert Y - Xk \Vert_2^2 + \lambda \Vert k \Vert_0) \rightarrow k_0 No entanto, é difícil para NP; portanto, resolvemos argmink∈Rm(∥Y−Xk∥22+λ∥k∥1)→k1argmink∈Rm(‖Y−Xk‖22+λ‖k‖1)→k1\text{argmin}_{k \in …

2
Quando usar a regressão de Ridge e de Lasso. O que pode ser alcançado ao usar essas técnicas, em vez do modelo de regressão linear
Estou ansioso para aprender mais sobre as técnicas de regressão regularizadas, como a regressão de Ridge e Lasso. Eu gostaria de saber o que pode ser alcançado usando essas técnicas quando comparado ao modelo de regressão linear. Também em que situação devemos adotar essas técnicas. E o que torna essas …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.