Antes de tudo, é uma pergunta de auto-estudo, por isso vou me aprofundar em cada pequeno detalhe técnico, mas também não vou a um frenesi de derivação. Existem diversas formas de fazer isto. Ajudarei você usando propriedades gerais do estimador de probabilidade máxima.
Informações básicas
Para resolver seu problema, acho que você precisa estudar a máxima probabilidade desde o início. Você provavelmente está usando algum tipo de livro de texto, e a resposta deve estar realmente em algum lugar. Vou ajudá-lo a descobrir o que procurar.
Máxima verossimilhança é um método de estimativa que é basicamente o que chamamos de estimador M (pense no "M" como "maximizar / minimizar"). Se as condições necessárias para o uso desses métodos forem atendidas, podemos mostrar que as estimativas dos parâmetros são consistentes e normalmente assintoticamente distribuídas, portanto, temos:
N--√( θ^- θ0 0) →dNormal ( 0 , A- 10 0B0 0UMA- 10 0) ,
onde e são algumas matrizes. Ao usar a probabilidade máxima, podemos mostrar que e, portanto, temos uma expressão simples:
Temos que onde denota o hessiano. É isso que você precisa estimar para obter sua variação.B 0 A 0 = B 0 √UMA0 0B0 0UMA0 0= B0 0A0≡-E(H(θ0))H
N--√( θ^- θ0 0) →dNormal ( 0 , A- 10 0) .
UMA0 0≡ - E( H( θ0 0) ))H
Seu problema específico
Então, como fazemos isso? Aqui vamos chamar nosso vetor de parâmetro como você faz: . Como é apenas um escalar, nossa "pontuação" é apenas a derivada e o "hessiano" é apenas a derivada de segunda ordem. Nossa função de probabilidade pode ser escrita como:
que é o que queremos maximizar. Você usou a primeira derivada disso ou a probabilidade do log para encontrar seu . Em vez de definir a primeira derivada igual a zero, podemos diferenciar novamente, para encontrar a derivada de segunda ordem . Primeiro pegamos logs:
Então nossa 'pontuação' é:
e nosso 'hessian':
p l ( p ) = ( p ) x ( 1 - p ) n - x , p ∗ H ( p ) l l ( p ) ≡ log ( l ( p ) ) = x log ( p ) + ( n - x ) log ( 1 - p ) l l ′ (θp
l ( p ) = ( p )x( 1 - p )n - x,
p∗H( P )l l ( p ) ≡ log( l ( p ) ) = x log( p ) + ( n - x ) log( 1 - p )
eu l′( p ) = xp+ n - x1 - p,
H( p ) = l l′ ′( p ) = - xp2- n - x( 1 - p )2.
Então nossa teoria geral acima diz apenas para você encontrar . Agora você só precisa assumir a expectativa de (Dica: use ), multiplique por e faça o inverso. Então você terá sua variação do estimador.
( - E( H( p ) ) )- 1H( P )E( x / n ) = p- 1