UMVUE de


10

Seja (X1,X2,,Xn) uma amostra aleatória da densidade

fθ(x)=θxθ110<x<1,θ>0

Estou tentando encontrar o UMVUE de .θ1+θ

A densidade da junta de é(X1,,Xn)

fθ(x1,,xn)=θn(i=1nxi)θ110<x1,,xn<1=exp[(θ1)i=1nlnxi+nlnθ+ln(10<x1,,xn<1)],θ>0

Como a população pdf pertence à família exponencial de um parâmetro, isso mostra que uma estatística completa suficiente para é T (X_1, \ ldots, X_n) = \ sum_ {i = 1} ^ n \ ln XIfθθ

T(X1,,Xn)=i=1nlnXi

Como E(X1)=θ1+θ , a princípio, E(X1T) me daria o UMVUE de θ1+θ pelo Teorema de Lehmann-Scheffe. Não tenho certeza se essa expectativa condicional pode ser encontrada diretamente ou é preciso encontrar a distribuição condicional X1i=1nlnXi .

Por outro lado, considerei a seguinte abordagem:

Temos Xii.i.dBeta(θ,1)2θlnXii.i.dχ22 , de modo que 2θTχ2n2 .

Então th momento em bruto a fim de cerca de zero, tal como calculada utilizando a pdf do qui-quadrado ér2θT

E(2θT)r=2rΓ(n+r)Γ(n),n+r>0

Portanto, parece que, para diferentes opções inteiras de , eu obteria estimadores imparciais (e UMVUEs) de diferentes potências inteiras de . Por exemplo, e me dê diretamente os UMVUE's de e respectivamente.rθE(Tn)=1θE(1nT)=θ1θθ

Agora, quando , temos .θ>1θ1+θ=(1+1θ)1=11θ+1θ21θ3+

Definitivamente, posso obter os UMVUE de e assim por diante. Então, combinando esses UMVUEs, posso obter o UMVUE necessário de . Este método é válido ou devo prosseguir com o primeiro método? Como UMVUE é único quando existe, ambos devem me dar a mesma resposta.1θ,1θ2,1θ3θ1+θ

Para ser explícito, estou recebendo

E(1+Tn+T2n(n+1)+T3n(n+1)(n+2)+)=11θ+1θ21θ3+

Ou seja,

E(r=0Trn(n+1)...(n+r1))=θ1+θ

É possível que meu UMVUE necessário seja quando ?r=0Trn(n+1)...(n+r1)θ>1

Para , eu obteria e, portanto, o UMVUE seria diferente.0<θ<1g(θ)=θ(1+θ+θ2+)


Tendo me convencido de que a expectativa condicional na primeira abordagem não poderia ser encontrada diretamente, e como , eu prossegui para encontrar a distribuição condicional . Para isso, eu precisava da densidade conjunta de .E(X1lnXi=t)=E(X1Xi=et)X1Xi(X1,Xi)

Usei a alteração de variáveis modo que para todos . Isso levou ao suporte conjunto de sendo .(X1,,Xn)(Y1,,Yn)Yi=j=1iXji=1,2,,n(Y1,,Yn)S={(y1,,yn):0<y1<1,0<yj<yj1 for j=2,3,,n}

O determinante jacobiano acabou sendo .J=(i=1n1yi)1

Então, obtive a densidade da junta como(Y1,,Yn)

fY(y1,y2,,yn)=θnynθ1i=1n1yi1S

Densidade da junta de é, portanto,(Y1,Yn)

fY1,Yn(y1,yn)=θnynθ1y10yn20yn30y11y3y4...yn1dy2y2dyn2dyn1

Existe uma transformação diferente que eu possa usar aqui que tornaria a derivação da densidade da junta menos complicada? Não tenho certeza se tomei a transformação correta aqui.


Com base em algumas sugestões excelentes na seção de comentários, encontrei a densidade articular de vez da densidade articular que e .(U,U+V)(X1,Xi)U=lnX1V=i=2nlnXi

É imediatamente visto que e são independentes.UExp(θ)VGamma(n1,θ)

E, de fato, .U+VGamma(n,θ)

Para , a densidade da junta de én>1(U,V)

fU,V(u,v)=θeθu1u>0θn1Γ(n1)eθvvn21v>0

Alterando variáveis, obtive a densidade conjunta de como(U,U+V)

fU,U+V(u,z)=θnΓ(n1)eθz(zu)n210<u<z

Portanto, a densidade condicional de éUU+V=z

fUU+V(uz)=(n1)(zu)n2zn110<u<z

Agora, meu UMVUE é exatamente , como eu havia mencionado à direita no início deste post.E(eUU+V=z)=E(X1i=1nlnXi=z)

Portanto, tudo o que resta a fazer é encontrar

E(eUU+V=z)=n1zn10zeu(zu)n2du

Mas essa última integral tem uma forma fechada em termos de função gama incompleta, de acordo com o Mathematica , e eu me pergunto o que fazer agora.


Você deve prosseguir com o primeiro método, localizando a distribuição condicional de , com qual forma de estatística suficiente pode ser mais fácil trabalhar neste aplicativo. X[1]|Xi
31418 jbowman

11
No ponto (inicial) em que você introduz o se de trabalhar em termos das variáveisÉ quase imediato que eles sejam proporcionais às distribuições , o que reduz rapidamente seu problema a considerar a distribuição conjunta de onde e Isso atalho as duas páginas restantes da matemática e lhe dará um caminho rápido para uma solução. Y i = - log X i . Γ ( 1 ) ( L , L + V ) L ~ Γ ( 1 ) V ~ Γ ( n - 1 ) .TYi=logXi.Γ(1)(U,U+V)UΓ(1)VΓ(n1).
whuber

@whuber Para ser claro, você está sugerindo que eu encontre a densidade de primeiro e a partir disso encontre a densidade de ? Eu tinha notado que os são variáveis ​​exponenciais com rate (que também é uma variável Gamma, como você diz), mas não tinha pensado em trabalhar com isso. ( X 1 , Π X i ) - ln X i θ(lnX1,lnX1i=2nlnXi)(X1,Xi)lnXiθ
precisa

11
@whuber Mas como eu obteria de diretamente? E ( ln X 1 | . . . )E(X1...)E(lnX1...)
precisa

11
@whuber Por favor, dê uma olhada na minha edição. Eu quase fiz isso, mas não sei o que fazer com essa integral. Estou bastante confiante de que meus cálculos estão corretos.
precisa

Respostas:


5

Acontece que ambas as abordagens (minha tentativa inicial e outra com base em sugestões na seção de comentários) no meu post original dão a mesma resposta. Vou descrever os dois métodos aqui para obter uma resposta completa à pergunta.

Aqui, significa a densidade gama f ( y ) = θ nGamma(n,θ)ondeθ,n>0eExp(θ)denotam uma distribuição exponencial com média1/θ, (θ>0). Claramente, Exp(θ)Gama(1,θ).f(y)=θnΓ(n)eθyyn11y>0θ,n>0Exp(θ)1/θθ>0Exp(θ)Gamma(1,θ)

Uma vez que é completa suficiente para θ e E ( X 1 ) = θT=i=1nlnXiθ , pelo teorema de Lehmann-Scheffe E(X1T)é o UMVUE deθE(X1)=θ1+θE(X1T) . Portanto, temos que encontrar essa expectativa condicional.θ1+θ

Observamos que .Xii.i.dBeta(θ,1)lnXii.i.dExp(θ)TGamma(n,θ)

Método I:

Vamos e V = - Σ n i = 2 LN X i , de modo que U e V são independentes. De fato, U Exp ( θ ) e V Gamma ( n - 1 , θ ) , implicando U + V Gamma ( n , θ ) .U=lnX1V=i=2nlnXiUVUExp(θ)VGamma(n1,θ)U+VGamma(n,θ)

Então, .E(X1i=1nlnXi=t)=E(eUU+V=t)

Agora encontramos a distribuição condicional de .UU+V

Para e θ > 0 , a densidade da junta de ( U , V ) én>1θ>0(U,V)

fU,V(u,v)=θeθu1u>0θn1Γ(n1)eθvvn21v>0=θnΓ(n1)eθ(u+v)vn21u,v>0

Alterando variáveis, é imediato que a densidade da junta de seja f U , U + V ( u , z ) = θ n(U,U+V)

fU,U+V(u,z)=θnΓ(n1)eθz(zu)n210<u<z

Vamos ser a densidade de L + V . Assim, a densidade condicional de U U + V = z é f U U + V ( u z )fU+V()U+VUU+V=z

fUU+V(uz)=fU,U+V(u,z)fU+V(z)=(n1)(zu)n2zn110<u<z

Portanto, .E(eUU+V=z)=n1zn10zeu(zu)n2du

Ou seja, o UMVUE de é E ( X 1T ) = n - 1θ1+θ(1)E(X1T)=n1(T)n10Teu(Tu)n2du

Método II:

Como é uma estatística suficiente para θ , qualquer estimador imparcial de θTθ que é uma função deTserá o UMVUE deθθ1+θT pelo teorema de Lehmann-Scheffe. Então, continuamos a encontrar os momentos de-T, cuja distribuição é conhecida por nós. Nós temos,θ1+θT

E(T)r=0yrθneθyyn1Γ(n)dy=Γ(n+r)θrΓ(n),n+r>0

Usando esta equação, obtemos estimadores imparciais (e UMVUE) de para cada número inteiro r 1 .1/θrr1

Agora, para , temos θθ>1θ1+θ=(1+1θ)1=11θ+1θ21θ3+

Combinando os estimadores imparciais de , obtemos E ( 1 + T1/θr

E(1+Tn+T2n(n+1)+T3n(n+1)(n+2)+)=11θ+1θ21θ3+

Ou seja,

E(r=0Trn(n+1)...(n+r1))=θ1+θ

Então, assumindo , o UMVUE de θθ>1 é g ( t ) = Σ r = 0 t rθ1+θ(2)g(T)=r=0Trn(n+1)...(n+r1)


Não estou certo sobre o caso no segundo método.0<θ<1

De acordo com o Mathematica , a equação tem uma forma fechada em termos da função gama incompleta. E na equação ( 2 ) , podemos expressar o produto n ( n + 1 ) ( n + 2 ) . . . ( n + r - 1 ) em termos da função gama usual como n ( n + 1 ) ( n + 2 ) . . . ((1)(2)n(n+1)(n+2)...(n+r1) . Isso talvez fornece a aparente conexão entre(1)e(2).n(n+1)(n+2)...(n+r1)=Γ(n+r)Γ(n)(1)(2)

Usando o Mathematica , pude verificar se e ( 2 ) são realmente a mesma coisa.(1)(2)


De fato, a igualdade entre e ( 2 ) segue escrevendo a expansão da série de potências de e - u em ( 2 ) e depois trocando a integral e a soma. (1)(2)eu(2)
precisa

1

Acho que podemos chegar à resposta mais compacta que você mencionou em relação à função gama incompleta superior. Usando o primeiro método, encontrei a expressão

E[X1|X1X2Xn=eT]=(n1)01zr(1r)nzdr,
ondez=eT.

O Wolfram Alpha integra isso para obter

E[X1|X1X2Xn=eT]=eT(n1)Tn1[(n2)!Γ(n1,T)]

Agora, o termo incompleto da função gama tem uma forma fechada quando n é um número inteiro. Isto é

Γ(n1,T)=Γ(n1)eTj=0n2Tjj!

Reescrevendo a expectativa e simplificando, encontramos

E[X1|X1X2Xn=eT]=Γ(n)Tn1[eTj=0n2Tjj!]

(1)(2)n=2n=3(1)


E[X1x1x2xn=eT],E[X1X1X2Xn=eT].
Michael Hardy
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.