Encontre a distribuição conjunta de e


8

Esta pergunta é da introdução à estatística matemática de Robert Hogg, 6ª versão, pergunta 7.6.7. O problema é :

Seja uma amostra aleatória do tamanho de uma distribuição com o pdfn

f(x;θ)=(1/θ)exp(x/θ)I(0,)(x)

Encontre o MLE e o MVUE de .P(X2)

Eu sei como encontrar o MLE.

Penso que a ideia de encontrar o MVUE é usar Rao-Blackwell e Lehmann e Scheffe. Primeiro encontramos um estimador imparcial de que pode ser , e sabemos que a estatística suficiente.P(X2)I(0,2)(X1)Y=i=1nXi

Então será o MUVE.E[I(0,2)(X1)Y]

Para encontrar a expectativa, precisamos da distribuição conjunta de eX1Y=i=1nXi

Eu estou preso aqui.

O livro tem uma solução, mas eu não entendo a solução. A solução diz que vamos encontrar a distribuição conjunta de e mas primeiro deixando e o jacobiano é um, então integramos essas outras variáveis.Z=X1YV=X1+X2U=X1+X2+X3+...

Como é que o jacobiano é igual a um?

A resposta para a distribuição conjunta é

g(z,y;θ)=(yz)n2(n2)!θney/θ

Como conseguimos isso?

Atualização: Conforme sugerido por Xi'an (o livro sugeriu que a transformação é confusa), vamos fazer a transformação da seguinte maneira:

Deixei

Y1=X1,Y2=X1+X2,Y3=X1+X2+X3,Y4=X1+X2+X3+X4,Yn=X1+X2+X3+X4++Xn

então

X1=Y1,X2=Y2Y1,X3=Y3Y2,X4=Y4Y3,Xn=YnYn1

e o jacobiano correspondente é:

|J|=|x1y1x1y2x1y3x1ynx2y1x2y2x2y3x2ynx3y1x3y2x3y3x3ynxny1xny2xny3xnyn|=10000110000110000011=1

Como são iid [ou ], a densidade da junta de é:X1,X2,,XnΓ(1,θ)E(1/θ)x1,x2,,xn

f(x1,x2,,xn)=1θexp(x1/θ)×1θexp(x2/θ)××1θexp(xn/θ)Ix10Ixn0

Portanto, o pdf conjunto de é(Y1,Y2,,Yn)

h(y1,y2,,yn)=1θnexp(y1/θ)exp[(y2y1)/θ]exp[(y3y2)/θ]exp[(ynyn1)/θ]|J|Iy10Iy2y10Iynyn10=1θnexp(yn/θ)Iy10Iy2y1Iynyn1

Em seguida, podemos integrar para obter o pdf conjunto ey2,y3,,yn1y1yn

Graças às sugestões de Xi'an, agora posso resolver o problema, darei cálculos detalhados abaixo

g(y1,yn)=y1yny2ynyn3ynyn2yn1θnexp(yn/θ)dyn1dyn2dy3dy2=1θnexp(yn/θ)y1yny2ynyn3ynyn2yndyn1dyn2dy3dy2=1θnexp(yn/θ)y1yny2ynyn4ynyn3yn(ynyn2)dyn2dyn3dy3dy2=1θnexp(yn/θ)y1yny2ynyn5ynyn4yn(ynyn3)22dyn3dyn4dy3dy2=1θnexp(yn/θ)y1yny2ynyn6ynyn5yn(ynyn4)32×3dyn4dyn5dy3dy2=1θnexp(yn/θ)y1yny2ynyn7ynyn6yn(ynyn5)42×3×4dyn5dyn4dy3dy2==1θnexp(yn/θ)(yny1)n2(n2)!

Mude para a notação do livro, , obtemosy=yn,z=y1

g(z,y;θ)=(yz)n2θn(n2)!ey/θ.

Isso resolve o problema.


Eu não entendo a noção de passar por mas a transformação de para tem um jacobiano, basta aplicar a definição de jacobiano. X1+X2(x1,...,xn)(x1,x1+x2,,x1++xn)
Xi'an

@ Xi'an, obrigado. Eu tentei a transformação mas ainda não consigo obter a solução sugerida pelo livroY1=X1,Y2=X1+X2,...,Yn=X1+X2+...+Xn
Deep North

1
Você está quase lá: eu corrigi a derivação da densidade conjunta de adicionando as funções do indicador. Isso implica que os limites nas integrais de devem ser se você integrar primeiro, depois , então ... Isso fornecerá a você a falta. y 2 , ... , y n - 1 y n y 1y n y 2y n(Y1,,Yn)y2,,yn1
y1yny2ynyn2yn
yn1yn2(n2)!
Xian

Respostas:


4

O argumento de transformação funciona bem e é sempre útil, mas agora vou sugerir uma maneira alternativa de resolver esse problema que tem certa semelhança com o método que você usaria se as variáveis ​​fossem discretas. Lembre-se de que a principal diferença é que, embora para uma variável aleatória discreta seja bem definida para um rv contínuo , , precisamos ter um pouco de cuidado.X P(X=x)YP(Y=y)=0

Vamos e agora estamos procurando a distribuição conjuntaS=i=1nXi

fX1,S(x1,s)

que podemos aproximar com a probabilidade

fX1,S(x1,s)P[x1<X1<x1+Δx1,s<S<s+Δs]P[x1<X1<x1+Δx1,sx1<i=2nXi<sx1+Δs]=P[x1<X1<x1+Δx1]P[sx1<i=2nXi<sx1+Δs]1θexp{x1θ}(sx1)n2exp{sx1θ}Γ(n1)θn1=(sx1)n2θn(n2)!exp{sθ}

para . Observe que na quarta linha usamos a propriedade de aditividade da distribuição gama, da qual o exponencial é um caso especial.0<x1<s<

Se você ajustar a notação, obteremos o mesmo aqui acima. Este método permite que você se livre da integração múltipla e é por isso que eu prefiro. Mais uma vez, tenha cuidado ao definir as densidades, no entanto.

Espero que isto ajude.


4

Corrija-me se estiver errado, mas acho que não é necessário encontrar a distribuição condicional para encontrar a expectativa condicional para o UMVUE. Podemos encontrar a média condicional usando relações conhecidas entre variáveis ​​Beta e Gamma independentes. Especificamente, o fato de que, se e são variáveis ​​Gamma independentes, é uma variável Gamma e é independente da variável Beta .UVU+VUU+V

Aqui, observe que e são distribuídos independentemente. E é distribuído independentemente de .X1Gamma(1,1θ)i=2nXiGamma(n1,1θ)X1+i=2nXiGamma(n,1θ)X1X1+i=2nXiBeta(1,n1)

Definah(X1,,Xn)={1, if X120, otherwise 

T=i=1nXi é completo o suficiente para a família de distribuições .{1exp(xθ):θ>0}

Portanto, UMVUE de le2 é pelo teorema de Lehmann-Scheffe.P(X2)E(hT)

Temos,

E(hT=t)=P(X12i=1nXi=t)=P(X1i=1nXi2ti=1nXi=t)=P(X1X1+i=2nXi2ti=1nXi=t)=P(X1X1+i=2nXi2t)=02/t(1x)n2B(1,n1)dx=1(12t)n1

Portanto, o UMVUE de deve ser .1 - ( 1 - 2P(X2)1(12i=1nXi)n1


1
Eu gosto mais desta resposta.
Hyg17
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.