Perguntas com a marcação «likelihood»

Dada uma variável aleatória que surge de uma distribuição parametrizada , a probabilidade é definida como a probabilidade dos dados observados em função de θ: \ text {L} (θ) = \ text {P} (θ ; X = x)XF(X;θ)θ:eu(θ)=P(θ;X=x)

2
Por que não usar o teorema de Bayes na forma ?
Existem muitas perguntas (como esta ) sobre alguma ambiguidade com a fórmula bayesiana em caso contínuo. p(θ|x)=p(x|θ)⋅p(θ)p(x)p(θ|x)=p(x|θ)⋅p(θ)p(x)p(\theta | x) = \frac{p(x | \theta) \cdot p(\theta)}{p(x)} Muitas vezes, a confusão surge do fato de que a definição da distribuição condicional f(variable|parameter)f(variable|parameter)f(variable | parameter) é explicada como fff sendo função da variablevariablevariable …


1
MLE de um processo Hawkes multivariado
Estou com dificuldades para implementar o estimador de probabilidade máxima para um processo multivariado de Hawkes (HP). Especificamente, enquanto a expressão analítica para uma função de probabilidade de log de um HP univariado pode ser facilmente encontrada on-line (por exemplo, Ozaki, 1979), parece haver versões diferentes (inconsistentes ou equivalentes?) Da …

1
Qual é o significado de sobrescrito em
No contexto da inferência baseada em verossimilhança, vi algumas notações sobre os parâmetros de interesse que achei um pouco confusas. Por exemplo, notação como e E θ [ S ( θ ) ] .pθ( X )pθ(x)p_{\theta}(x)Eθ[ S( θ ) ]Eθ[S(θ)]{\mathbb E}_{\theta}\left[S(\theta)\right] Qual é o significado do parâmetro ( ) na …

3
MCMC para lidar com problemas de probabilidade plana
Eu tenho uma probabilidade bastante plana de levar o amostrador Metropolis-Hastings a se mover pelo espaço de parâmetros de maneira muito irregular, ou seja, nenhuma convergência pode ser alcançada, independentemente dos parâmetros de distribuição da proposta (no meu caso, é gaussiano). Não há alta complexidade no meu modelo - apenas …

1
Rastreio de probabilidade estranha da cadeia MCMC
Eu tenho um modelo que vai: Single parameter -> Complex likelihood function -> Log-likelihood. Executei uma cadeia MCMC (usando o pymc) e plotei o rastreamento do parâmetro e a probabilidade de log. A estimativa de parâmetros acabou sendo razoável, mas o gráfico de probabilidade de log parece estranho para mim. …


1
Probabilidade vs. Probabilidade
Tenho dificuldades com as probabilidades . Eu entendo o Teorema de Bayes p(A|B,H)=p(B|A,H)p(A|H)p(B|H)p(A|B,H)=p(B|A,H)p(A|H)p(B|H)p(A|B, \mathcal{H}) = \frac{p(B|A, \mathcal{H}) p(A|\mathcal{H})}{p(B|\mathcal{H})} que pode ser deduzido diretamente da aplicação de p(A,B)=p(B)⋅p(A|B)=p(A)p(B|A)=p(B,A)p(A,B)=p(B)⋅p(A|B)=p(A)p(B|A)=p(B,A)p(A,B) = p(B) \cdot p(A|B) = p (A) p(B|A) = p(B,A) . Assim, na minha interpretação, p(⋅)p(⋅)p(\cdot)funções no teorema de Bayes são de alguma …

2
Por que um modelo estatístico superajustaria se recebesse um grande conjunto de dados?
Meu projeto atual pode exigir que eu construa um modelo para prever o comportamento de um determinado grupo de pessoas. o conjunto de dados de treinamento contém apenas 6 variáveis ​​(id é apenas para fins de identificação): id, age, income, gender, job category, monthly spend em que monthly spendé a …
8 modeling  large-data  overfitting  clustering  algorithms  error  spatial  r  regression  predictive-models  linear-model  average  measurement-error  weighted-mean  error-propagation  python  standard-error  weighted-regression  hypothesis-testing  time-series  machine-learning  self-study  arima  regression  correlation  anova  statistical-significance  excel  r  regression  distributions  statistical-significance  contingency-tables  regression  optimization  measurement-error  loss-functions  image-processing  java  panel-data  probability  conditional-probability  r  lme4-nlme  model-comparison  time-series  probability  probability  conditional-probability  logistic  multiple-regression  model-selection  r  regression  model-based-clustering  svm  feature-selection  feature-construction  time-series  forecasting  stationarity  r  distributions  bootstrap  r  distributions  estimation  maximum-likelihood  garch  references  probability  conditional-probability  regression  logistic  regression-coefficients  model-comparison  confidence-interval  r  regression  r  generalized-linear-model  outliers  robust  regression  classification  categorical-data  r  association-rules  machine-learning  distributions  posterior  likelihood  r  hypothesis-testing  normality-assumption  missing-data  convergence  expectation-maximization  regression  self-study  categorical-data  regression  simulation  regression  self-study  self-study  gamma-distribution  modeling  microarray  synthetic-data 

2
Função de probabilidade de dados truncados
Estou com problemas para entender o conceito e a derivação da probabilidade de dados truncados. Por exemplo, se eu quiser encontrar a função de probabilidade com base em uma amostra de uma distribuição, mas ao retirar uma amostra da distribuição, observo os valores truncados (onde há um corte de , …

2
Cálculo da probabilidade quando
Estou tentando calcular esta distribuição posterior: ( θ | - ) = ∏ni = 1pyEuEu( 1 - pEu)1 - yEu∑todosθ , pEu| θ∏ni = 1pyEuEu( 1 - pEu)1 - yEu(θ|-)=∏Eu=1npEuyEu(1-pEu)1-yEu∑todosθ,pEu|θ∏Eu=1npEuyEu(1-pEu)1-yEu (\theta|-)=\frac{\prod_{i=1}^{n}p_i^{y_i}(1-p_i)^{1-y_i}}{\sum_{\text{all}\,\theta,p_i|\theta}\prod_{i=1}^{n}p_i^{y_i}(1-p_i)^{1-y_i}} O problema é que o numerador, que é o produto de um monte de probabilidades é muito pequeno. (Meu …



2
A função de pontuação de Fisher tem média zero - o que isso significa?
Estou tentando seguir a revisão de Princeton da teoria da probabilidade . Eles definem Fisher’s score functioncomo a primeira derivada da função log-verossimilhança e dizem que a pontuação é um vetor aleatório. Por exemplo, para a distribuição geométrica: u(π)=n(1π−y¯1−π)u(π)=n(1π−y¯1−π) u(\pi) = n\left(\frac{1}{\pi} - \frac{\bar{y}}{1-\pi} \right) E eu posso ver que …

1
A lógica básica da construção de um intervalo de confiança
Considere um modelo com um parâmetro de interesse, , e seu estimador de pontos, . Para simplificar, suponha (em vários casos, isso pode ser justificado assintoticamente). Existem duas maneiras de construir um intervalo que passa a ser o menor intervalo de confiança possível .θθ\thetaθ^θ^\hat\thetaθ^∼N(θ,σ2/n)θ^∼N(θ,σ2/n)\hat\theta\sim N(\theta,\sigma^2/n)(1−α)(1 1-α)(1-\alpha) Para qualquer valor verdadeiro …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.