A técnica que você descreve é chamada imputação por regressões seqüenciais ou imputação múltipla por equações encadeadas. A técnica foi pioneira em Raghunathan (2001) e implementada em um pacote R que funcionava bem mice
(van Buuren, 2012).
Um artigo de Schafer e Graham (2002) explica bem por que a imputação média e a exclusão listwise (o que você chama de exclusão de linha) geralmente não são boas alternativas para as técnicas mencionadas acima. Principalmente a imputação média não é condicional e, portanto, pode influenciar as distribuições imputadas em relação à média observada. Também reduzirá a variação, entre outros impactos indesejáveis na distribuição imputada. Além disso, a exclusão listwise, de fato, só funcionará se os dados estiverem faltando completamente ao acaso, como o toque de uma moeda. Além disso, aumentará o erro de amostragem, pois o tamanho da amostra é reduzido.
Os autores citados acima geralmente recomendam começar com a variável que apresenta os valores menos ausentes. Além disso, a técnica é geralmente aplicada de maneira bayesiana (ou seja, uma extensão da sua sugestão). As variáveis são visitadas com mais frequência no procedimento de imputação, não apenas uma vez. Em particular, cada variável é completada com base em sua distribuição preditiva posterior condicional, começando com a variável que apresenta menos valores ausentes. Depois que todas as variáveis em um conjunto de dados são concluídas, o algoritmo inicia novamente na primeira variável e depois reitera até a convergência. Os autores mostraram que esse algoritmo é Gibbs, portanto, geralmente converge para a distribuição multivariada correta das variáveis.
Geralmente, porque existem algumas suposições não testáveis envolvidas, em particular faltando dados aleatórios (ou seja, se os dados são observados ou não, depende apenas dos dados observados e não dos valores não observados). Os procedimentos também podem ser parcialmente incompatíveis, motivo pelo qual foram chamados de PIGS (amostrador de Gibbs parcialmente incompatível).
Na prática, a imputação múltipla bayesiana ainda é uma boa maneira de lidar com problemas de dados ausentes não monótonos e multivariados. Além disso, extensões não paramétricas, como correspondência preditiva média, ajudam a relaxar as suposições da modelagem de regressão.
Raghunathan, TE, Lepkowski, J., van Hoewyk, J. e Solenberger, P. (2001). Uma técnica multivariada para multiplicar valores ausentes de imputação usando uma sequência de modelos de regressão. Survey Methodology, 27 (1), 85–95.
Schafer, JL e Graham, JW (2002). Dados ausentes: nossa visão do estado da arte. Psychological Methods, 7 (2), 147-177. https://doi.org/10.1037/1082-989X.7.2.147
van Buuren, S. (2012). Imputação flexível de dados ausentes. Boca Raton: CRC Press.