Perguntas com a marcação «gaussian-mixture»

Um tipo de distribuição ou modelo misto que assume subpopulações segue as distribuições gaussianas.



4
Modelo de Histórico de Eventos em Tempo Discreto (Sobrevivência) em R
Estou tentando ajustar um modelo de tempo discreto no R, mas não sei como fazê-lo. Eu li que você pode organizar a variável dependente em linhas diferentes, uma para cada observação no tempo, e usar a glmfunção com um link logit ou cloglog. Neste sentido, tem três colunas: ID, Event(1 …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 


2
Aplicando inferência variacional estocástica à Mistura Bayesiana de Gaussiana
Estou tentando implementar o modelo de Mistura Gaussiana com inferência variacional estocástica, seguindo este artigo . Este é o pgm da mistura gaussiana. De acordo com o artigo, o algoritmo completo de inferência variacional estocástica é: E ainda estou muito confuso sobre o método para escalá-lo para GMM. Primeiro, pensei …


1
Simule a partir de uma distribuição normal de mistura truncada
Quero simular uma amostra de uma distribuição normal de mistura, de modo que p × N( μ1, σ21) + ( 1 - p ) × N( μ2, σ22)p×N(μ1,σ12)+(1−p)×N(μ2,σ22)p\times\mathcal{N}(\mu_1,\sigma_1^2) + (1-p)\times\mathcal{N}(\mu_2,\sigma_2^2) é restrito ao intervalo vez de . Isso significa que eu quero simular uma mistura truncada de distribuições normais.R[ 0 …



2
Como provar essa desigualdade da mistura gaussiana? (Montagem / sobreajuste)
Seja f [x] um pdf de mistura gaussiana com n termos de peso uniforme, meios e variações correspondentes :{ μ1, . . . , μn}{μ1,...,μn}\{\mu_{1},...,\mu_{n}\}{σ1,...,σn}{σ1,...,σn}\{\sigma_{1},...,\sigma_{n}\} f(x)≡1n∑i=1n12πσ2i−−−−√e−(x−μi)22σ2if(x)≡1n∑i=1n12πσi2e−(x−μi)22σi2f(x)\equiv\frac{1}{n}\sum_{i=1}^{n}\frac{1}{\sqrt{2\pi\sigma_{i}^{2}}}e^{-\frac{(x-\mu_{i})^{2}}{2\sigma_{i}^{2}}} Parece intuitivo que a probabilidade de log amostrada nos n centros gaussianos seja maior que (ou igual a) a probabilidade de log média: 1n∑j=1nln(f(μj))≥∫f(x)ln(f(x))dx1n∑j=1nln(f(μj))≥∫f(x)ln(f(x))dx\frac{1}{n}\sum_{j=1}^{n}ln(f(\mu_{j}))\geq\int …


1
K-means como um caso limite do algoritmo EM para misturas de Gauss com covariâncias indo para
Meu objetivo é ver que o algoritmo K-means é de fato o algoritmo de Expectativa-Maximização para misturas Gaussianas, em que todos os componentes têm covariância no limite como .σ2Iσ2I\sigma^2 Ilimσ→0limσ→0\lim_{\sigma \to 0} Suponha que temos um conjunto de dados {x1,…,xN}{x1,…,xN}\{x_1, \dots ,x_N\} de observações de variável aleatória XXX . A …




Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.