Em teoria, a escala de suas entradas é irrelevante para a regressão logística. Você pode "teoricamente" multiplicar por e a estimativa para será ajustada de acordo. Será vezes menor que o original , devido à propriedade de invariância dos MLEs.X110101010β110−101010β1
Mas tente fazer com que R faça a regressão ajustada acima - ela surtará (nem será capaz de construir a matriz X).
É um pouco como o algoritmo de decomposição de Cholesky para calcular uma raiz quadrada de matriz. Sim, na matemática exata , a decomposição de Cholesky nunca envolve obter raiz quadrada de número negativo, mas arredondar erros e a aritmética de ponto flutuante pode levar a esses casos.
Você pode usar qualquer combinação linear de suas variáveis X e os valores previstos serão os mesmos.
Se seguirmos o conselho de @ simone, e usar as variáveis X redimensionadas para ajustar o modelo . Mas podemos usar a propriedade invariância do MLE para obter a versão beta desejada, depois de usar variáveis de entrada X numericamente estáveis. Pode ser que a versão beta na escala original seja mais fácil de interpretar do que a versão beta na transformada pela @ simone. Então, nós temos o transformou ( th observação para a th variável), chamá-lo de , definido por:xijijx~ij
x~ij=ajxij+bj
A escolha de @ simone corresponde a e (usando para denotar a estatística de ordem da variável ésima, ou seja,aj=1x[N]j−x[1]jbj=x¯¯¯jx[N]j−x[1]jx[i]jijx[N]j≥x[N−1]j≥⋯≥x[1]j) oaj e bjpode ser pensado como parâmetros do algoritmo (escolhido para tornar o algoritmo mais estável e / ou executar mais rápido). Em seguida, ajustamos uma regressão logística usandox~ije obtenha estimativas de parâmetros β~j. Assim, escrevemos o preditor linear:
zi=β~0+∑jx~ijβ~j
Agora substitua a equação por x~ij e você obtém:
zi=β~0+∑j(ajxij+bj)β~j=β0+∑jxijβj
Onde
β0=β~0+∑jbjβ~jβj=ajβ~j
Você pode ver que, teoricamente, os parâmetros aj,bj não faz nenhuma diferença: qualquer escolha (além de aj=0) levará à mesma probabilidade, porque o preditor linear não é alterado. Até funciona para transformações lineares mais complicadas, como representar a matriz X por seus principais componentes (o que envolve rotações). Assim, podemos transformar os resultados de volta para obter os betas que queremos para interpretação.