Perguntas com a marcação «joint-distribution»

A distribuição de probabilidade conjunta de várias variáveis ​​aleatórias dá a probabilidade de que todas elas estejam simultaneamente em uma determinada região.


1
Limites superiores para a densidade da cópula?
O limite superior de Fréchet-Hoeffding se aplica à função de distribuição de cópula e é dado por C(u1,...,ud)≤min{u1,..,ud}.C(u1,...,ud)≤min{u1,..,ud}.C(u_1,...,u_d)\leq \min\{u_1,..,u_d\}. Existe um limite superior semelhante (no sentido de que depende das densidades marginais) para a cópula densidade c(u1,...,ud)c(u1,...,ud)c(u_1,...,u_d) vez do CDF? Qualquer referência seria muito apreciada.

5
Diferença entre os termos 'distribuição conjunta' e 'distribuição multivariada'?
Estou escrevendo sobre o uso de uma 'distribuição de probabilidade conjunta' para um público que provavelmente entenderá 'distribuição multivariada', por isso estou pensando em usá-lo posteriormente. No entanto, não quero perder o significado ao fazer isso. A Wikipedia parece indicar que estes são sinônimos. São eles? Se não, por que …

3
Estimador de probabilidade máxima de distribuição conjunta, considerando apenas contagens marginais
Seja px,ypx,yp_{x,y} uma distribuição conjunta de duas variáveis ​​categóricas X,YX,YX,Y , com x,y∈{1,…,K}x,y∈{1,…,K}x,y\in\{1,\ldots,K\} . Digamos que nnn amostras foram retiradas dessa distribuição, mas recebemos apenas as contagens marginais, ou seja, para j=1,…,Kj=1,…,Kj=1,\ldots,K : Sj=∑i=1nδ(Xi=l),Tj=∑i=1nδ(Yi=j),Sj=∑i=1nδ(Xi=l),Tj=∑i=1nδ(Yi=j), S_j = \sum_{i=1}^{n}{\delta(X_i=l)}, T_j = \sum_{i=1}^{n}{\delta(Y_i=j)}, Qual é o estimador de máxima verossimilhança para px,ypx,yp_{x,y} , …

1
Condição necessária e suficiente no MGF conjunto para a independência
Suponha que eu tenha um momento conjunto gerando a função para uma distribuição conjunta com CDF . É ambos um necessária e suficiente de condição para independência de e ? Eu verifiquei alguns livros, que mencionavam apenas a necessidade:MX,Y(s,t)MX,Y(s,t)M_{X,Y}(s,t)FX,Y(x,y)FX,Y(x,y)F_{X,Y}(x,y)MX,Y(s,t)=MX,Y(s,0)⋅MX,Y(0,t)MX,Y(s,t)=MX,Y(s,0)⋅MX,Y(0,t)M_{X,Y}(s,t)=M_{X,Y}(s,0)⋅M_{X,Y}(0,t)XXXYYY FX,Y(x,y)=FX(x)⋅FY(y)⟹MX,Y(s,t)=MX(s)⋅MY(t)FX,Y(x,y)=FX(x)⋅FY(y)⟹MX,Y(s,t)=MX(s)⋅MY(t)F_{X,Y}(x,y)=F_X(x)\cdot F_Y(y) \implies M_{X,Y}(s,t)=M_X(s) \cdot M_Y(t) Esse resultado é claro, pois …



1
Como comparar eventos observados x eventos esperados?
Suponha que eu tenha uma amostra de frequências de 4 eventos possíveis: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 e tenho as probabilidades esperadas de meus eventos ocorrerem: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 Com a soma das frequências …
9 r  statistical-significance  chi-squared  multivariate-analysis  exponential  joint-distribution  statistical-significance  self-study  standard-deviation  probability  normal-distribution  spss  interpretation  assumptions  cox-model  reporting  cox-model  statistical-significance  reliability  method-comparison  classification  boosting  ensemble  adaboost  confidence-interval  cross-validation  prediction  prediction-interval  regression  machine-learning  svm  regularization  regression  sampling  survey  probit  matlab  feature-selection  information-theory  mutual-information  time-series  forecasting  simulation  classification  boosting  ensemble  adaboost  normal-distribution  multivariate-analysis  covariance  gini  clustering  text-mining  distance-functions  information-retrieval  similarities  regression  logistic  stata  group-differences  r  anova  confidence-interval  repeated-measures  r  logistic  lme4-nlme  inference  fiducial  kalman-filter  classification  discriminant-analysis  linear-algebra  computing  statistical-significance  time-series  panel-data  missing-data  uncertainty  probability  multivariate-analysis  r  classification  spss  k-means  discriminant-analysis  poisson-distribution  average  r  random-forest  importance  probability  conditional-probability  distributions  standard-deviation  time-series  machine-learning  online  forecasting  r  pca  dataset  data-visualization  bayes  distributions  mathematical-statistics  degrees-of-freedom 

1
Espaçamento entre variáveis ​​aleatórias uniformes discretas
Vamos ser iid variáveis aleatórias discretas uniformes sobre (0,1) e suas estatísticas de ordem seja .U1,…,UnU1,…,UnU_1, \ldots, U_nnnnU(1),…,U(n)U(1),…,U(n)U_{(1)}, \ldots, U_{(n)} Defina para com .Di=U(i)−U(i−1)Di=U(i)−U(i−1)D_i=U_{(i)}-U_{(i-1)}i=1,…,ni=1,…,ni=1, \ldots, nU0=0U0=0U_0=0 Estou tentando descobrir a distribuição conjunta de e sua distribuição marginal e possivelmente seus primeiros momentos. Alguém pode dar alguma dica sobre isso. Você …

1
A distribuição máxima de entropia é consistente com determinadas distribuições marginais e a distribuição dos produtos pelas marginais?
Geralmente, existem muitas distribuições conjuntas consistentes com um conjunto conhecido de distribuições marginais .P(X1=x1,X2=x2,...,Xn=xn)P(X1=x1,X2=x2,...,Xn=xn)P(X_1 = x_1, X_2 = x_2, ..., X_n = x_n)fi(xi)=P(Xi=xi)fi(xi)=P(Xi=xi)f_i(x_i) = P(X_i = x_i) Destas distribuições conjuntas, o produto é formado pelo produto dos marginais aquele com a maior entropia?∏ifi(xi)∏ifi(xi)\prod_i f_i(x_i) Certamente acredito que isso é verdade, …

1
Resolução analítica de amostras com ou sem reposição após binômio Poisson / Negativo
Versão curta Estou tentando resolver / aproximar analiticamente a probabilidade composta que resulta de desenhos independentes de Poisson e de amostras adicionais com ou sem substituição (eu realmente não me importo com qual). Quero usar a probabilidade com o MCMC (Stan), portanto, preciso da solução apenas até um termo constante. …

2
Estatísticas de Independência e Ordem
Eu tenho um problema em mãos, que não estou conseguindo prosseguir. Alguém pode me ajudar a começar? Y1&lt;Y2&lt;Y3Y1&lt;Y2&lt;Y3Y_1<Y_2<Y_3 : Uma ordem de tamanho 3 estatística de distribuição tendo pdf f(x)=2x 0&lt;x&lt;1f(x)=2x 0&lt;x&lt;1 f(x)=2x\ \ \ 0<x<1 Além disso, definirU1=Y1Y2 and U2=Y2Y3U1=Y1Y2 and U2=Y2Y3U_1={Y_1\over Y_2} \ \ \text{and }\ \ \ …


1
Variável aleatória univariada X, Y com : são independentes?
Seja X:Ω→RX:Ω→RX:\Omega\to\mathbb{R} e Y:Ω→RY:Ω→RY:\Omega\to\mathbb{R} sejam variáveis ​​aleatórias univariadas com CDF FX,Y(x,y)FX,Y(x,y)F_{X,Y}(x,y) tais que: FX,Y(x,y)=G1(x)G2(y),∀(x,y)∈R×RFX,Y(x,y)=G1(x)G2(y),∀(x,y)∈R×R F_{X,Y}(x,y)=G_1(x)G_2(y),\forall (x,y)\in\mathbb{R}\times\mathbb{R} que G1:R→RG1:R→RG_1:\mathbb{R}\to\mathbb{R} , G2:R→RG2:R→RG_2:\mathbb{R}\to\mathbb{R} são funções conhecidas. Pergunta : É verdade que XXX e YYY são RVs independentes? Alguém pode me dar algumas dicas? Tentei: FX(x)=limy→∞FX,Y(x,y)=limy→∞G1(x)G2(y)=G1(x)⋅limy→∞G2(y)FX(x)=limy→∞FX,Y(x,y)=limy→∞G1(x)G2(y)=G1(x)⋅limy→∞G2(y) F_X(x)=\lim_{y\to\infty}F_{X,Y}(x,y)=\lim_{y\to\infty}G_1(x)G_2(y)=G_1(x)\cdot\lim_{y\to\infty}G_2(y) mas não sei por que (ou se) …

1
Distância de Mahalanobis em dados não normais
A distância de Mahalanobis, quando usada para fins de classificação, normalmente assume uma distribuição normal multivariada, e as distâncias do centróide devem seguir uma (com graus de liberdade iguais ao número de dimensões / características). Podemos calcular a probabilidade de um novo ponto de dados pertencer ao conjunto usando sua …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.