Na regressão linear, supõe-se que as observações sigam uma distribuição gaussiana com um parâmetro médio condicional aos valores do preditor. Se você subtrair a média das observações, obtém o erro : uma distribuição gaussiana com média zero e independente dos valores preditores - ou seja, erros em qualquer conjunto de valores preditivos seguem a mesma distribuição.
Em observações de regressão logística são assumidos para seguir uma distribuição de Bernoulli † com um parâmetro significativo (probabilidade) condicional sobre os valores de previsão. Portanto, para qualquer valor preditivo determinado que determina uma média π, existem apenas dois erros possíveis: 1 - π ocorrendo com probabilidade π , e 0 - π ocorrendo com probabilidade 1 - π . Para outros valores preditores, os erros serão de 1 - π ′ ocorrendo com probabilidade π ′y∈{0,1}π1−ππ0−π1−π1−π′π′, & ocorrendo com probabilidade 1 - π ′ . Portanto, não há distribuição de erro comum independente dos valores do preditor, e é por isso que as pessoas dizem que "não existe termo de erro" (1).0−π′1−π′
"O termo do erro tem uma distribuição binomial" (2) é apenas negligência - "os modelos gaussianos têm erros gaussianos, os modelos binomiais antigos têm erros binomiais". (Ou, como @whuber aponta, pode ser entendido como "a diferença entre uma observação e sua expectativa tem uma distribuição binomial traduzida pela expectativa".)
"O termo de erro tem uma distribuição logística" (3) surge da derivação da regressão logística do modelo em que você observa se uma variável latente com erros após uma distribuição logística excede algum limite. Portanto, não é o mesmo erro definido acima. (Seria estranho dizer IMO fora desse contexto ou sem referência explícita à variável latente.)
† Se tiver observações com os mesmos valores de previsão, que dá a mesma probabilidade π para cada um, em seguida, a sua soma Σ y segue uma distribuição binomial com probabilidade π e não. ensaios k . Considerando ∑ y - k π como o erro leva às mesmas conclusões.kπ∑yπk∑y−kπ