Perguntas com a marcação «exponential-family»

Um conjunto de distribuições (por exemplo, normal, χ2, Poisson, etc) que compartilham um formulário específico. Muitas das distribuições na família exponencial são distribuições padrão, burras de carga em estatísticas, com propriedades estatísticas convenientes.





1
A probabilidade de log no GLM garantiu convergência para os máximos globais?
Minhas perguntas são: Os modelos lineares generalizados (GLMs) garantem convergir para um máximo global? Se sim, por quê? Além disso, que restrições existem na função de link para garantir a convexidade? Meu entendimento dos GLMs é que eles maximizam uma função de probabilidade altamente não-linear. Assim, eu imaginaria que existem …

2
Derivação da transformação de normalização para GLMs
\newcommand{\E}{\mathbb{E}} Como está a transformação de normalização A(⋅)=∫duV1/3(μ)A(⋅)=∫duV1/3(μ)A(\cdot) = \displaystyle\int\frac{du}{V^{1/3}(\mu)} normalização para a família exponencial derivado? Mais especificamente : tentei seguir o esboço de expansão de Taylor na página 3, slide 1 aqui, mas tenho várias perguntas. Com XXX de uma família exponencial, transformação h(X)h(X)h(X) e κiκi\kappa _i indicando o …

2
Divergência de Kullback-Leibler entre duas distribuições gama
Optando por parametrizar a distribuição gama Γ(b,c)Γ(b,c)\Gamma(b,c) pelo pdf g(x;b,c)=1Γ(c)xc−1bce−x/bg(x;b,c)=1Γ(c)xc−1bce−x/bg(x;b,c) = \frac{1}{\Gamma(c)}\frac{x^{c-1}}{b^c}e^{-x/b} A divergência de Kullback-Leibler entreΓ(bq,cq)Γ(bq,cq)\Gamma(b_q,c_q)eΓ(bp,cp)Γ(bp,cp)\Gamma(b_p,c_p)é dada por [1] como KLGa(bq,cq;bp,cp)=(cq−1)Ψ(cq)−logbq−cq−logΓ(cq)+logΓ(cp)+cplogbp−(cp−1)(Ψ(cq)+logbq)+bqcqbpKLGa(bq,cq;bp,cp)=(cq−1)Ψ(cq)−log⁡bq−cq−log⁡Γ(cq)+log⁡Γ(cp)+cplog⁡bp−(cp−1)(Ψ(cq)+log⁡bq)+bqcqbp\begin{align} KL_{Ga}(b_q,c_q;b_p,c_p) &= (c_q-1)\Psi(c_q) - \log b_q - c_q - \log\Gamma(c_q) + \log\Gamma(c_p)\\ &\qquad+ c_p\log b_p - (c_p-1)(\Psi(c_q) + \log b_q) + \frac{b_qc_q}{b_p} \end{align} Estou supondo que Ψ(x):=Γ′(x)/Γ(x)Ψ(x):=Γ′(x)/Γ(x)\Psi(x):= \Gamma'(x)/\Gamma(x) …


1
A média e a variação sempre existem para distribuições familiares exponenciais?
Suponha que uma variável aleatória escalar pertença a uma família exponencial de parâmetro vetorial com pdfXXX fX(x|θ)=h(x)exp(∑i=1sηi(θ)Ti(x)−A(θ))fX(x|θ)=h(x)exp⁡(∑i=1sηi(θ)Ti(x)−A(θ)) f_X(x|\boldsymbol \theta) = h(x) \exp\left(\sum_{i=1}^s \eta_i({\boldsymbol \theta}) T_i(x) - A({\boldsymbol \theta}) \right) onde θ=(θ1,θ2,⋯,θs)Tθ=(θ1,θ2,⋯,θs)T{\boldsymbol \theta} = \left(\theta_1, \theta_2, \cdots, \theta_s \right )^T é o vetor de parâmetro e T(x)=(T1(x),T2(x),⋯,Ts(x))TT(x)=(T1(x),T2(x),⋯,Ts(x))T\mathbf{T}(x)= \left(T_1(x), T_2(x), \cdots,T_s(x) \right)^T …



1
Estimador imparcial com variância mínima para
Seja uma amostra aleatória de uma distribuição para . Ou seja,X1,...,XnX1,...,Xn X_1, ...,X_nGeometric(θ)Geometric(θ)Geometric(\theta)0&lt;θ&lt;10&lt;θ&lt;10<\theta<1 pθ(x)=θ(1−θ)x−1I{1,2,...}(x)pθ(x)=θ(1−θ)x−1I{1,2,...}(x)p_{\theta}(x)=\theta(1-\theta)^{x-1} I_{\{1,2,...\}}(x) Encontre o estimador imparcial com variação mínima parag(θ)=1θg(θ)=1θg(\theta)=\frac{1}{\theta} Minha tentativa: Como a distribuição geométrica é da família exponencial, as estatísticas são completas e suficientes para . Além disso, se é um estimador para , ele …


1
Encontre UMVUE de
Deixe que 𝑋1,𝑋2,...,𝑋𝑛X1,X2,...,XnX_1, X_2, . . . , X_n seja iid variáveis ​​aleatórias tendo pdf 𝑓𝑋(𝑥∣𝜃)=𝜃(1+𝑥)−(1+𝜃)𝐼(0,∞)(𝑥)fX(x∣θ)=θ(1+x)−(1+θ)I(0,∞)(x)f_X(x\mid\theta) =\theta(1 +x)^{−(1+\theta)}I_{(0,\infty)}(x) onde 𝜃&gt;0θ&gt;0\theta >0 . Dê a UMVUE de 1𝜃1θ\frac{1}{\theta} e calcular sua variância Eu aprendi sobre dois métodos para obter UMVUE's: Limite inferior de Cramer-Rao (CRLB) Lehmann-Scheffe Thereom Vou tentar fazer isso …


Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.