[Acho que esse pode ser um exemplo do tipo de situação em discussão na sua pergunta.]
Existem inúmeros exemplos de estimadores inconsistentes de ML. A inconsistência é comumente vista com uma variedade de problemas de mistura levemente complicados e problemas de censura.
[A consistência de um teste é basicamente a de que o poder do teste para uma hipótese falsa (fixa) aumenta para um como n→∞ .]
Radford Neal dá um exemplo em sua entrada no blog 09/08/2008 Estimativa de verossimilhança máxima inconsistente: Um exemplo "comum" . Envolve a estimativa do parâmetro em:θ
X | θ ∼ (1/2)N(0,1) + (1/2)N(θ,exp(−1/θ2)2)
(Neal usa onde eu tenho θ ) onde a estimativa de ML de θ tenderá a 0 como n → ∞tθθ0n→∞ (e, de fato, a probabilidade pode ser muito maior em um pico próximo de 0 do que no valor verdadeiro para tamanhos de amostra bastante modestos). No entanto, é o caso de um pico próximo ao valor verdadeiro θ , é apenas menor que o próximo a 0.
Imagine agora dois casos relacionados a essa situação:
a) realização de um teste de razão de verossimilhança de contra a alternativa H 1 : θ < θ 0H0:θ=θ0H1:θ<θ0 ;
b) realizar um teste da razão de verossimilhança de contra a alternativa H 1 : θ ≠ θ 0 .H0:θ=θ0H1:θ≠θ0
No caso (a), imagine que o verdadeiro (de modo que a alternativa seja verdadeira e 0 seja o outro lado do verdadeiro θ ). Então, apesar de a probabilidade muito próxima de 0 exceder a de θ , a probabilidade de θ excede, no entanto, a probabilidade de θ 0, mesmo em amostras pequenas, e a proporção continuará a crescer como n → ∞ , em tais de maneira a tornar a probabilidade de rejeição em um teste de razão de verossimilhança ir para 1.θ<θ00θθθθ0n→∞
De fato, mesmo no caso (b), desde que seja fixo e limitado a 0 , também deve ser o caso de a razão de verossimilhança crescer de maneira a tornar a probabilidade de rejeição em um teste de razão de verossimilhança também abordagem 1.θ00
Portanto, isso parece ser um exemplo de estimativa inconsistente de ML, onde o poder de um LRT deve, no entanto, ir para 1 (exceto quando ).θ0=0
[Observe que não há realmente nada disso que ainda não esteja na resposta do whuber, o que eu acho que é um exemplo de clareza e é muito mais simples para entender a diferença entre a consistência do teste e a consistência de um estimador. O fato de o estimador inconsistente no exemplo específico não ser o ML não importa muito para entender essa diferença - e trazer um estimador inconsistente que é especificamente o ML - como tentei fazer aqui - não altera realmente o explicação de qualquer maneira substantiva. O único ponto real do exemplo aqui é que acho que ele aborda sua preocupação em usar um estimador de ML.]