Perguntas com a marcação «likelihood»

Dada uma variável aleatória que surge de uma distribuição parametrizada , a probabilidade é definida como a probabilidade dos dados observados em função de θ: \ text {L} (θ) = \ text {P} (θ ; X = x)XF(X;θ)θ:eu(θ)=P(θ;X=x)


2
Compreendendo a regressão logística e a probabilidade
Como a estimativa de parâmetros / treinamento de regressão logística realmente funciona? Vou tentar colocar o que tenho até agora. A saída é y a saída da função logística em forma de probabilidade, dependendo do valor de x: P(y=1|x)=11+e−ωTx≡σ(ωTx)P(y=1|x)=11+e−ωTx≡σ(ωTx)P(y=1|x)={1\over1+e^{-\omega^Tx}}\equiv\sigma(\omega^Tx) P(y=0|x)=1−P(y=1|x)=1−11+e−ωTxP(y=0|x)=1−P(y=1|x)=1−11+e−ωTxP(y=0|x)=1-P(y=1|x)=1-{1\over1+e^{-\omega^Tx}} Para uma dimensão, as chamadas Odds são definidas da seguinte …

5
Como executar a imputação de valores em um número muito grande de pontos de dados?
Eu tenho um conjunto de dados muito grande e faltam cerca de 5% de valores aleatórios. Essas variáveis ​​estão correlacionadas entre si. O exemplo a seguir do conjunto de dados R é apenas um exemplo de brinquedo com dados correlatos simulados. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 


3
Por que a probabilidade no filtro Kalman é calculada usando resultados de filtro em vez de resultados mais suaves?
Estou usando o filtro Kalman de uma maneira muito padrão. O sistema é representado pela equação de estado e a equação de observação .xt+1=Fxt+vt+1xt+1=Fxt+vt+1x_{t+1}=Fx_{t}+v_{t+1}yt=Hxt+Azt+wtyt=Hxt+Azt+wty_{t}=Hx_{t}+Az_{t}+w_{t} Os livros didáticos ensinam que, depois de aplicar o filtro Kalman e obter as "previsões um passo à frente" (ou "estimativa filtrada"), devemos usá-los para calcular …

3
Probabilidade versus distribuição condicional para análise bayesiana
Podemos escrever o teorema de Bayes como p(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(\theta|x) = \frac{f(X|\theta)p(\theta)}{\int_{\theta} f(X|\theta)p(\theta)d\theta} onde é o posterior, é a distribuição condicional e é o anterior.p(θ|x)p(θ|x)p(\theta|x)f(X|θ)f(X|θ)f(X|\theta)p(θ)p(θ)p(\theta) ou p(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(\theta|x) = \frac{L(\theta|x)p(\theta)}{\int_{\theta} L(\theta|x)p(\theta)d\theta} onde é o posterior, é a função de probabilidade e é o anterior.p(θ|x)p(θ|x)p(\theta|x)L(θ|x)L(θ|x)L(\theta|x)p(θ)p(θ)p(\theta) Minha pergunta é Por que a análise bayesiana é …


4
Função de probabilidade máxima para distribuição de tipo misto
Em geral, maximizamos uma função L(θ;x1,…,xn)=∏i=1nf(xi∣θ)eu(θ;x1,…,xn)=∏Eu=1nf(xEu∣θ) L(\theta; x_1, \ldots, x_n) = \prod_{i=1}^n f(x_i \mid \theta) onde fff é a função de densidade de probabilidade se a distribuição subjacente for contínua e uma função de massa de probabilidade (com soma em vez de produto) se a distribuição for discreta. Como podemos …


1
Valores-P e princípio da verossimilhança
Esta pergunta surgiu na aula: se usarmos valores-p para avaliar hipóteses em um experimento, que parte do Princípio da Probabilidade não estamos obedecendo: Suficiência ou Condicionalidade ? Minha intuição seria dizer Suficiência , uma vez que calcular um valor-p baseia-se em resultados não observados de um experimento, e Suficiência parece …

4
Como interpreto uma curva de sobrevivência do modelo de risco Cox?
Como você interpreta uma curva de sobrevivência a partir do modelo de risco proporcional cox? Neste exemplo de brinquedo, suponha que tenhamos um modelo de risco proporcional ao cox na agevariável dos kidneydados e gere a curva de sobrevivência. library(survival) fit <- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() Por exemplo, …

1
Uma estimativa bayesiana com um "flat prior" é o mesmo que uma estimativa de máxima verossimilhança?
Na filogenética, as árvores filogenéticas são frequentemente construídas usando MLE ou análise bayesiana. Muitas vezes, um plano prévio é usado na estimativa bayesiana. Pelo que entendi, uma estimativa bayesiana é uma estimativa de probabilidade que incorpora uma prévia. Minha pergunta é: se você usa um flat anterior, é diferente de …


2
Estimador robusto de probabilidade marginal do MCMC?
Estou tentando calcular a probabilidade marginal de um modelo estatístico pelos métodos de Monte Carlo: f( x ) = ∫f( x ∣ θ ) π( θ )dθf(x)=∫f(x∣θ)π(θ)dθf(x) = \int f(x\mid\theta) \pi(\theta)\, d\theta A probabilidade é bem comportada - suave, côncava -, mas de alta dimensão. Eu tentei amostragem de importância, …


Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.