Minha pergunta está relacionada à regularização em regressão linear e regressão logística. Atualmente, estou fazendo a terceira semana do curso Machine Learning de Andrew Ng sobre Coursera. Entendo como o ajuste excessivo pode ser um problema comum e tenho alguma intuição de como a regularização pode reduzir o ajuste excessivo. Minha pergunta é: podemos melhorar nossos modelos regularizando diferentes parâmetros de maneiras diferentes?
Exemplo:
Digamos que estamos tentando encaixar . Esta pergunta é sobre por que penalizamos por altos valores de da mesma maneira que penalizamos por altos valores de .
Se não sabemos nada sobre como nossos recursos foram construídos, faz sentido tratá-los da mesma maneira quando fazemos a regularização: um alto valor deve render tanto "penalidade" quanto alto valor .
Mas digamos que temos informações adicionais: digamos que tínhamos apenas dois recursos originalmente: e . Uma linha estava se ajustando mal ao nosso conjunto de treinamento e queríamos um limite de decisão com uma forma mais irregular, então construímos e . Agora podemos ter modelos mais complexos, mas quanto mais complexos eles ficarem, mais correremos o risco de adaptar nosso modelo aos dados de treinamento. Portanto, queremos encontrar um equilíbrio entre minimizar a função de custo e minimizar a complexidade do modelo. Bem, os parâmetros que representam exponenciais mais elevados ( , ) estão aumentando drasticamente a complexidade do nosso modelo. Portanto, não devemos penalizar mais pela alta ,valores que penalizamos por altos valores ?