Maindonald descreve um método seqüencial baseado nas rotações de Givens . (Uma rotação de Givens é uma transformação ortogonal de dois vetores que zera uma determinada entrada em um dos vetores.) Na etapa anterior, você decompôs a matriz de design em uma matriz triangular T por meio de uma transformação ortogonal Q, de modo que Q X = ( T , 0 ) ′ . (É rápido e fácil obter os resultados da regressão a partir de uma matriz triangular.) Ao juntar uma nova linha v abaixo de X , você efetivamente estende ( T , 0 )XTQQ X =( T , 0 )′vX Por uma linha diferente de zero, diga t . A tarefa é zerar esta linha enquanto mantém as entradas na posição de T. diagonal. Uma sequência de rotações de Givens faz isso: a rotação com a primeira linha de T zeros, o primeiro elemento de t ; então a rotação com a segunda linha de T zeros o segundo elemento e assim por diante. O efeito é pré-multiplicar Q por uma série de rotações, o que não altera sua ortogonalidade.(T,0)′tTTtTQ
Quando a matriz de projeto possui colunas (que é o caso ao regredir nas variáveis p mais uma constante), o número de rotações necessárias não excede p + 1 e cada rotação altera dois vetores p + 1 . O armazenamento necessário para T é O ( ( p + 1 ) 2 ) . Portanto, esse algoritmo tem um custo computacional de O ( ( p + 1 ) 2 ) no tempo e no espaço.p + 1pp + 1p + 1TO ( ( p + 1 )2)O ( ( p + 1 )2)
Uma abordagem semelhante permite determinar o efeito na regressão da exclusão de uma linha. Maindonald dá fórmulas; assim como Belsley, Kuh e Welsh . Portanto, se você estiver procurando por uma janela em movimento para regressão, poderá reter os dados da janela em um buffer circular, adjacente ao novo dado e descartando o antigo a cada atualização. Isso dobra o tempo de atualização e requer armazenamento adicional de para uma janela de largura k . Parece que 1 / k seria o análogo do parâmetro de influência.O ( k ( p + 1 ) )k1 / k
Para decaimento exponencial, acho (especulativamente) que você pode adaptar essa abordagem a mínimos quadrados ponderados, atribuindo a cada novo valor um peso maior que 1. Não deve haver necessidade de manter um buffer de valores anteriores ou excluir dados antigos.
Referências
JH Maindonald, computação estatística. J. Wiley & Sons, 1984. Capítulo 4.
DA Belsley, E. Kuh, RE Welsch, Regression Diagnostics: Identifying Influential Data and Sources of Collinearity. J. Wiley & Sons, 1980.