Esta pergunta faz referência ao artigo de Galit Shmueli, "Explicar ou prever" .
Especificamente, na seção 1.5, "Explicar e prever são diferentes", o professor Shmueli escreve:
Na modelagem explicativa, o foco é minimizar o viés para obter a representação mais precisa da teoria subjacente.
Isso me intrigou cada vez que li o jornal. Em que sentido minimizar o viés nas estimativas fornece a representação mais precisa da teoria subjacente?
Também assisti à palestra do professor Shmueli aqui , proferida no JMP Discovery Summit 2017, e ela declara:
... coisas que são como modelos de encolhimento, conjuntos, você nunca verá isso. Porque esses modelos, por design, introduzem viés para reduzir o viés / variação geral. É por isso que eles não estarão lá, não faz nenhum sentido teórico fazer isso. Por que você faria seu modelo tendencioso de propósito?
Isso realmente não esclarece minha pergunta, simplesmente reafirma a alegação de que não entendo.
Se a teoria tiver muitos parâmetros e tivermos poucos dados para estimar, o erro de estimativa será dominado pela variação. Por que seria inapropriado usar um procedimento de estimativa tendenciosa como a regressão de crista (resultando em estimativas tendenciosas de menor variância) nessa situação?