Perguntas com a marcação «maximum-likelihood»

um método de estimativa de parâmetros de um modelo estatístico, escolhendo o valor do parâmetro que otimiza a probabilidade de observação da amostra especificada.

1
simulando amostras aleatórias com um determinado MLE
Essa pergunta de validação cruzada que pergunta sobre simular uma amostra condicional a uma soma fixa me lembrava de um problema que George Casella me colocou . f(x|θ)f(x|θ)f(x|\theta)(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θθ\thetaθ(X1,...,Xn) θ (X1,...,Xn)θ^(x1,…,xn)=argmin∑i=1nlogf(xi|θ)θ^(x1,…,xn)=arg⁡min∑i=1nlog⁡f(xi|θ)\hat{\theta}(x_1,\ldots,x_n)=\arg\min \sum_{i=1}^n \log f(x_i|\theta)θθ\theta(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θ^(X1,…,Xn)θ^(X1,…,Xn)\hat{\theta}(X_1,\ldots,X_n) Por exemplo, considere uma distribuição , com o parâmetro de localização , cuja densidade é Se como …


2
Um problema de estimativa impossível?
Questão A variação de uma distribuição binomial negativa (NB) é sempre maior que sua média. Quando a média de uma amostra é maior que sua variância, a tentativa de ajustar os parâmetros de um RN com probabilidade máxima ou com estimativa de momento falhará (não há solução com parâmetros finitos). …




2
Por que exatamente as informações observadas de Fisher são usadas?
Na configuração padrão de máxima verossimilhança (amostra iid Y1,…,YnY1,…,YnY_{1}, \ldots, Y_{n} de alguma distribuição com densidade fy(y|θ0fy(y|θ0f_{y}(y|\theta_{0} )) e no caso de um modelo especificado corretamente, as informações de Fisher são fornecidas por I(θ)=−Eθ0[∂2θ2lnfy(θ)]I(θ)=−Eθ0[∂2θ2ln⁡fy(θ)]I(\theta) = -\mathbb{E}_{\theta_{0}}\left[\frac{\partial^{2}}{\theta^{2}}\ln f_{y}(\theta) \right] onde a expectativa é tomada em relação à densidade real que gerou …


2
Diferença residual de erro padrão entre optim e glm
Eu tento reproduzir com optimos resultados de uma regressão linear simples ajustada com glmou até nlsfunções R. As estimativas de parâmetros são as mesmas, mas a estimativa de variação residual e os erros padrão dos outros parâmetros não são os mesmos, principalmente quando o tamanho da amostra é baixo. Suponho …

2
A matriz de informações observadas é um estimador consistente da matriz de informações esperadas?
Estou tentando provar que a matriz de informações observada avaliada no estimador de verossimilhança máxima fraca consistentemente consistente (MLE) é um estimador fracamente consistente da matriz de informações esperada. Este é um resultado amplamente citado, mas ninguém fornece uma referência ou uma prova (acabei as 20 primeiras páginas de resultados …

3
O MLE requer dados iid? Ou apenas parâmetros independentes?
Estimar parâmetros usando a estimativa de máxima verossimilhança (MLE) envolve avaliar a função de verossimilhança, que mapeia a probabilidade da amostra (X) ocorrer para valores (x) no espaço de parâmetros (θ), dada uma família de distribuição (P (X = x | θ ) sobre os valores possíveis de θ (nota: …

3
Localizando o MLE para um processo exponencial univariado de Hawkes
O processo exponencial univariado de Hawkes é um processo de ponto emocionante com uma taxa de chegada de eventos de: λ(t)=μ+∑ti&lt;tαe−β(t−ti)λ(t)=μ+∑ti&lt;tαe−β(t−ti) \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t-t_i)}} onde são os horários de chegada do evento.t1,..tnt1,..tn t_1,..t_n A função de probabilidade do log é −tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln(μ+αe−β(tj−ti))−tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln⁡(μ+αe−β(tj−ti)) - t_n \mu + \frac{\alpha}{\beta} \sum{( …




Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.