A imparcialidade não é necessariamente especialmente importante por si só.
Além de um conjunto muito limitado de circunstâncias, os estimadores mais úteis são tendenciosos, mas são obtidos.
Se dois estimadores têm a mesma variação, pode-se montar prontamente um argumento para preferir um imparcial a um tendencioso, mas essa é uma situação incomum (ou seja, você pode razoavelmente preferir imparcialidade, ceteris paribus - mas esses incômodos ceteris) quase nunca são paribus ).
Mais tipicamente, se você deseja imparcialidade, adiciona alguma variação para obtê-la, e a pergunta seria por que você faria isso ?
Viés é até que ponto o valor esperado do meu estimador será muito alto em média (com viés negativo indicando muito baixo).
Quando estou considerando um pequeno estimador de amostra, não me importo com isso. Normalmente, estou mais interessado em quão errado meu estimador estará nesse caso - minha distância típica da direita ... algo como um erro de raiz quadrada média ou um erro médio absoluto faria mais sentido.
Portanto, se você gosta de baixa variância e baixo viés, pedir um estimador de erro quadrado médio mínimo faria sentido; estes raramente são imparciais.
Viés e imparcialidade são uma noção útil, mas não é uma propriedade especialmente útil, a menos que você esteja comparando apenas estimadores com a mesma variação.
Os estimadores de ML tendem a ser de baixa variância; eles geralmente não são MSE mínimos, mas costumam ter MSE mais baixo do que modificá-los para serem imparciais (quando você pode fazer isso).
Como um exemplo, considere estimar a varicia no momento da amostragem de uma distribuição normal σ 2 MMSE = S 2 (de fato, o MMSE para a variação sempre tem um denominador maior quen-1).σ^2MMSE= S2n + 1, σ^2MLE= S2n, σ^2Unb= S2n - 1n - 1