Estou lendo um aprendizado profundo de Ian Goodfellow et al. Ele introduz o viés como
que e são o parâmetro estimado e o parâmetro real subjacente, respectivamente.
A consistência, por outro lado, é definida por
o que significa que para qualquer , como
Em seguida, diz que consistência implica imparcialidade, mas não vice-versa:
A consistência garante que o viés induzido pelo estimador diminua à medida que o número de exemplos de dados aumenta. No entanto, o contrário não é verdadeiro - a imparcialidade assintótica não implica consistência. Por exemplo, considere estimar o parâmetro médio μ de uma distribuição normal N (x; μ, σ2), com um conjunto de dados composto por m amostras: . Poderíamos usar a primeira amostra do conjunto de dados como um estimador imparcial: . Nesse caso, E (\ hat θ_m) = θ para que o estimador seja imparcial, não importa quantos pontos de dados sejam vistos. Isso, é claro, implica que a estimativa é assintoticamente imparcial. No entanto, este não é um estimador consistente, pois não é o caso de \ hatθ_m → θ comoθ = x ( 1 ) E( θ m )= θ θ m → θ m→ ∞
Não sei se entendi corretamente o parágrafo acima e os conceitos de imparcialidade e consistência. Espero que alguém possa me ajudar a verificar. Desde já, obrigado.
Tanto quanto eu entendo, consistência implica imparcialidade e baixa variação e, portanto, a imparcialidade sozinha não é suficiente para implicar consistência.