Pela lei (fraca / forte) de grandes números, dados alguns pontos de amostra iid de uma distribuição, sua amostra significa converge para a média de distribuição, tanto em probabilidade quanto em, como tamanho da amostra vai para o infinito.
Quando o tamanho da amostra é fixo, eu me pergunto se o estimador LLN é um estimador melhor em algum sentido? Por exemplo,
- sua expectativa é a média da distribuição, portanto é um estimador imparcial. Sua variação é que é a variação da distribuição. Mas é UMVU?
existe alguma função tal que resolva o problema de minimização:
Em outras palavras, é a melhor função de contraste na estrutura de contraste mínimo ( consulte a Seção 2.1 "Heurísticas básicas de estimativa" em " Estatística matemática: idéias básicas e tópicos selecionados, Volume 1 " de Bickle e Doksum).
Por exemplo, se a distribuição for conhecida / restrita como sendo da família de distribuições gaussianas, a média da amostra será o estimador da média da distribuição do MLE, e o MLE pertencerá à estrutura mínima de contraste e sua função de contraste será menos a probabilidade do log função.
existe alguma função tal que resolva o problema de minimização: para qualquer distribuição de dentro de alguma família de distribuições?f ∗ f ∗ = argmin fP x i F
Em outras palavras, é o melhor para algumas funções perdidas alguma família de distribuições no referencial teórico da decisão (consulte a Seção 1.3 "O Marco Teórico da Decisão" em " Estatística matemática: idéias básicas e tópicos selecionados, volume 1 " de Bickle e Doksum). l F
Observe que as opções acima são três interpretações diferentes para uma "melhor" estimativa que eu conheci até agora. Se você conhece outras possíveis interpretações que podem ser aplicadas ao estimador LLN, não hesite em mencionar isso também.