Perguntas com a marcação «likelihood»

Dada uma variável aleatória que surge de uma distribuição parametrizada , a probabilidade é definida como a probabilidade dos dados observados em função de θ: \ text {L} (θ) = \ text {P} (θ ; X = x)XF(X;θ)θ:eu(θ)=P(θ;X=x)

10
Qual é a diferença entre "probabilidade" e "probabilidade"?
A página da wikipedia afirma que probabilidade e probabilidade são conceitos distintos. Na linguagem não técnica, "probabilidade" é geralmente sinônimo de "probabilidade", mas no uso estatístico há uma clara distinção de perspectiva: o número que é a probabilidade de alguns resultados observados, dado um conjunto de valores de parâmetros, é …

3
Um exemplo: regressão do LASSO usando glmnet para resultado binário
Estou começando a se envolver com o uso de glmnetcom LASSO Regressão onde meu desfecho de interesse é dicotômica. Criei um pequeno quadro de dados simulado abaixo: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p …
78 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 






3
Que tipo de informação é Fisher?
Suponha que tenhamos uma variável aleatória . Se fosse o parâmetro true, a função de verossimilhança deveria ser maximizada e a derivada igual a zero. Esse é o princípio básico por trás do estimador de probabilidade máxima.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Pelo que entendi, as informações de Fisher são definidas como I(θ)=E[(∂∂θf(X|θ))2]I(θ)=E[(∂∂θf(X|θ))2]I(\theta) …

3
Quais são algumas aplicações ilustrativas da probabilidade empírica?
Ouvi falar da probabilidade empírica de Owen, mas até recentemente não prestava atenção até que me deparei com isso em um artigo de interesse ( Mengersen et al. 2012 ). Em meus esforços para entendê-lo, observei que a probabilidade dos dados observados é representada como , onde e .L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L = …



5
Intuição do Teorema de Bayes
Eu tenho tentado desenvolver um entendimento baseado na intuição do teorema de Bayes em termos de probabilidade anterior , posterior , probabilidade e marginal . Para isso, uso a seguinte equação: onde A representa uma hipótese ou crença e B representa dados ou evidências. Eu entendi o conceito de posterior …




Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.