Yudi Pawitan escreve em seu livro In All Likelihood que a segunda derivada da probabilidade logarítmica avaliada nas estimativas de máxima verossimilhança (MLE) é a informação observada de Fisher (consulte também este documento , página 2). É exatamente isso que a maioria dos algoritmos de otimização gosta optim
em R
troca: o Hessian avaliado no MLE. Quando o negativoprobabilidade de log é minimizada, o Hessian negativo é retornado. Como você aponta corretamente, os erros padrão estimados do MLE são as raízes quadradas dos elementos diagonais do inverso da matriz de informações de Fisher observada. Em outras palavras: as raízes quadradas dos elementos diagonais do inverso do hessiano (ou do hessiano negativo) são os erros padrão estimados.
Sumário
- O Hessian negativo avaliado no MLE é o mesmo que a matriz de informações de Fisher observada avaliada no MLE.
- Em relação à sua pergunta principal: Não, não é correto que as informações de Fisher observadas possam ser encontradas invertendo o Hessiano (negativo).
- Em relação à sua segunda pergunta: O inverso do Hessiano (negativo) é um estimador da matriz de covariância assintótica. Portanto, as raízes quadradas dos elementos diagonais da matriz de covariância são estimadores dos erros padrão.
- Acho que o segundo documento vinculado está errado.
Formalmente
Seja uma função de probabilidade de log. A matriz de informações de Fisher é uma matriz simétrica contém as entradas:
A matriz de informações observada de Fisher é simplesmente , a matriz de informação avaliada com base nas estimativas de máxima verossimilhança (MLE). O Hessiano é definido como:
l(θ) I(θ)(p×p)
I(θ)=−∂2∂θi∂θjl(θ), 1≤i,j≤p
I(θ^ML)H(θ)=∂2∂θi∂θjl(θ), 1≤i,j≤p
Nada mais é do que a matriz de segundas derivadas da função de probabilidade em relação aos parâmetros. Daqui resulta que, se você minimizar a probabilidade logarítmica
negativa , o Hessian retornado é o equivalente à matriz de informações Fisher observada, enquanto no caso de você maximizar a probabilidade logarítmica, o Hessian
negativo é a matriz de informações observadas.
Além disso, o inverso da matriz de informações de Fisher é um estimador da matriz de covariância assintótica:
Os erros padrão são as raízes quadradas dos elementos diagonais da matriz de covariância. Para a distribuição assintótica de uma estimativa de máxima verossimilhança, podemos escrever
que indica o valor verdadeiro do parâmetro. Portanto, o erro padrão estimado das estimativas de máxima verossimilhança é dado por:
θ M L um ~ N ( θ 0 , [ I ( θ M G ) ] - 1 ) θ 0 S E ( θ M L ) = 1
Var(θ^ML)=[I(θ^ML)]−1
θ^ML∼aN(θ0,[I(θ^ML)]−1)
θ0SE(θ^ML)=1I(θ^ML)−−−−−−√