Edit: Eu entendi mal a sua pergunta. Existem dois aspectos:
a) na.omit
e na.exclude
ambos fazem exclusão casualmente em relação a preditores e critérios. Eles diferem apenas no fato de o extrator funcionar como residuals()
ou fitted()
irá preencher sua saída com NA
s para os casos omitidos na.exclude
, tendo assim uma saída do mesmo comprimento que as variáveis de entrada.
> N <- 20 # generate some data
> y1 <- rnorm(N, 175, 7) # criterion 1
> y2 <- rnorm(N, 30, 8) # criterion 2
> x <- 0.5*y1 - 0.3*y2 + rnorm(N, 0, 3) # predictor
> y1[c(1, 3, 5)] <- NA # some NA values
> y2[c(7, 9, 11)] <- NA # some other NA values
> Y <- cbind(y1, y2) # matrix for multivariate regression
> fitO <- lm(Y ~ x, na.action=na.omit) # fit with na.omit
> dim(residuals(fitO)) # use extractor function
[1] 14 2
> fitE <- lm(Y ~ x, na.action=na.exclude) # fit with na.exclude
> dim(residuals(fitE)) # use extractor function -> = N
[1] 20 2
> dim(fitE$residuals) # access residuals directly
[1] 14 2
b) O problema real não é com essa diferença entre na.omit
e na.exclude
, você não parece querer uma exclusão casualmente que leve em consideração as variáveis de critério, o que ambas fazem.
> X <- model.matrix(fitE) # design matrix
> dim(X) # casewise deletion -> only 14 complete cases
[1] 14 2
Os resultados da regressão dependem do matrizes (pseudoinverse de montagem de matriz X , coeficientes β = X + Y ) e a matriz de chapéu H = X X + , valores ajustados Y = H Y ) Se você não deseja exclusão casewise, precisará de uma matriz de design X diferente para cada coluna de YX+= ( X′X)- 1X′Xβ^= X+YH=XX+Y^= HYXY, portanto, não há como ajustar regressões separadas para cada critério. Você pode tentar evitar a sobrecarga lm()
fazendo algo ao longo das linhas a seguir:
> Xf <- model.matrix(~ x) # full design matrix (all cases)
# function: manually calculate coefficients and fitted values for single criterion y
> getFit <- function(y) {
+ idx <- !is.na(y) # throw away NAs
+ Xsvd <- svd(Xf[idx , ]) # SVD decomposition of X
+ # get X+ but note: there might be better ways
+ Xplus <- tcrossprod(Xsvd$v %*% diag(Xsvd$d^(-2)) %*% t(Xsvd$v), Xf[idx, ])
+ list(coefs=(Xplus %*% y[idx]), yhat=(Xf[idx, ] %*% Xplus %*% y[idx]))
+ }
> res <- apply(Y, 2, getFit) # get fits for each column of Y
> res$y1$coefs
[,1]
(Intercept) 113.9398761
x 0.7601234
> res$y2$coefs
[,1]
(Intercept) 91.580505
x -0.805897
> coefficients(lm(y1 ~ x)) # compare with separate results from lm()
(Intercept) x
113.9398761 0.7601234
> coefficients(lm(y2 ~ x))
(Intercept) x
91.580505 -0.805897
Note que não pode ser numericamente melhores maneiras de caculate e H , você pode verificar a Q R -decomposition vez. A abordagem SVD é explicada aqui no SE . Não cronometrei a abordagem acima com grandes matrizes Y contra o uso real .X+HQ RYlm()