Qual é o método dos momentos?
Há um bom artigo sobre isso na Wikipedia.
https://en.m.wikipedia.org/wiki/Method_of_moments_(statistics)
Isso significa que você está estimando os parâmetros populacionais selecionando os parâmetros para que a distribuição populacional tenha momentos equivalentes aos momentos observados na amostra.
Qual é a diferença do MLE
A estimativa de probabilidade máxima minimiza a função de probabilidade. Em alguns casos, esse mínimo pode às vezes ser expresso em termos de definir os parâmetros da população iguais aos parâmetros da amostra.
Por exemplo, ao estimar o parâmetro médio de uma distribuição e empregar o MLE, muitas vezes acabamos usando . No entanto, isso nem sempre precisa ser o caso (relacionado: https://stats.stackexchange.com/a/317631/164061, embora, no caso do exemplo, a distribuição de Poisson, a estimativa do MLE e do MoM coincidam e a o mesmo vale para muitos outros). Por exemplo, a solução MLE para a estimativa de em uma distribuição normal de log é:μ = x¯μ
μ = 1 / n ∑ l n ( xEu) = l n ( x )¯¯¯¯¯¯¯¯¯¯¯
Enquanto a solução MoM está resolvendo
e x p ( μ + 12σ2) = x¯
levando a
μ = l n ( x¯) - 12σ2
Portanto, o MoM é uma maneira prática de estimar os parâmetros, levando muitas vezes ao mesmo resultado exato do MLE (uma vez que os momentos da amostra geralmente coincidem com os momentos da população, por exemplo, uma média da amostra é distribuída pela média da população, e até algum fator / viés, funciona muito bem). O MLE tem uma base teórica mais forte e, por exemplo, permite estimar erros usando a matriz Fisher (ou estimativas dela), e é uma abordagem muito mais natural no caso de problemas de regressão (eu não tentei, mas acho que um MoM para resolver parâmetros em uma regressão linear simplesnão está funcionando facilmente e pode dar maus resultados. Na resposta do superpronker, parece que isso é feito por alguma minimização de uma função. Para o MLE, essa minimização expressa uma probabilidade mais alta, mas eu me pergunto se isso representa algo semelhante para o MoM).