Vamos construir todos os exemplos possíveis de variáveis aleatórias XX para as quais E [ X ] E [ 1 / X ] = 1E[X]E[1/X]=1 . Então, entre eles, podemos seguir algumas heurísticas para obter o exemplo mais simples possível. Essas heurísticas consistem em fornecer os valores mais simples possíveis para todas as expressões que abandonam uma análise preliminar. Esse é o exemplo do livro didático.
Análise preliminar
Isso requer apenas um pouco de análise com base nas definições. A solução é apenas de interesse secundário: o objetivo principal é desenvolver insights para nos ajudar a entender os resultados intuitivamente.
Primeiro, observe que a desigualdade de Jensen (ou a desigualdade de Cauchy-Schwarz) implica que, para uma variável aleatória positiva XX , E [ X ] E [ 1 / X ] ≥ 1E[X]E[1/X]≥1 , com a igualdade mantendo se e somente se XX for "degenerado": isto é , XX é quase certamente constante. Quando XX é uma variável aleatória negativa, - X−X é positivo e o resultado anterior se mantém com o sinal de desigualdade invertido. Consequentemente, qualquer exemplo em que E [ 1 / X ] = 1 / E[ X ]E[1/X]=1/E[X] deve ter probabilidade positiva de ser negativo e probabilidade positiva de ser positivo.
O insight aqui é que qualquer XX com E [ X ] E [ 1 / X ] = 1E[X]E[1/X]=1 deve, de alguma forma, "equilibrar" a desigualdade de sua parte positiva contra a desigualdade na outra direção da sua parte negativa. Isso ficará mais claro à medida que avançamos.
Considere qualquer variável aleatória X diferente de zero X. Uma etapa inicial na formulação de uma definição de expectativa (pelo menos quando isso é feito em generalidade total usando a teoria da medida) é decompor XX em suas partes positivas e negativas, ambas variáveis aleatórias positivas:
Y = Parte positiva ( X ) = máx ( 0 , X ) ; Z = Parte negativa ( X ) = - min ( 0 , X ) .
YZ=Positive part(X)=max(0,X);=Negative part(X)=−min(0,X).
Pensemos de XX como uma mistura de YY com peso pp e - Z−Z com peso 1 - p1−p onde p = Pr ( X > 0 ) , 1 - p = Pr ( X < 0 ) .
p=Pr(X>0), 1−p=Pr(X<0).
Obviamente
0 < p < 1.0<p<1.
Isso nos permitirá escrever expectativas de XX e 1 / X1/Xem termos das expectativas das variáveis positivas YY e ZZ .
Para simplificar um pouco a próxima álgebra, observe que o redimensionamento uniforme de XX por um número σσ não altera E [ X ] E [ 1 / X ] -E[X]E[1/X] mas multiplica E [ Y ]E[Y] e E [ Z ]E[Z] cada um por σσ . Para positivo σσ , esta eleva-se a simplesmente selecionar as unidades de medida de XX . Um negativo σσ comuta os papéis de YY e ZZ . Escolhendo o sinal de σσapropriadamente, portanto, podemos supor E [ Z ] = 1 e E [ Y ] ≥ E [ Z ] .
E[Z]=1 and E[Y]≥E[Z].(1)
Notação
É isso para simplificações preliminares. Para criar uma boa notação, vamos escrever
μ = E [ Y ] ; v = E [ 1 / Y ] ; λ = E [ 1 / Z ]
μ=E[Y]; ν=E[1/Y]; λ=E[1/Z]
pelas três expectativas que não podemos controlar. Todas as três quantidades são positivas. A desigualdade de Jensen afirma
μ ν ≥ 1 e λ ≥ 1.
μν≥1 and λ≥1.(2)
A Lei da Probabilidade Total expressa as expectativas de XX e 1 / X1/X em termos das quantidades que denominamos:
E [ X ] = E [ X ∣ X > 0 ] Pr ( X > 0 ) + E [ X ∣ X < 0 ] Pr ( X < 0 ) = μ p - ( 1 - p ) = ( μ + 1 ) p - 1
E[X]=E[X∣X>0]Pr(X>0)+E[X∣X<0]Pr(X<0)=μp−(1−p)=(μ+1)p−1
e, como 1 / X tem o mesmo sinal que X ,1/XX
E [ 1X ]=E[1X ∣X>0]Pr(X>0)+E[1X ∣X<0]Pr(X<0)=νp-λ(1-p)=(ν+λ)p-λ.
E[1X]=E[1X∣X>0]Pr(X>0)+E[1X∣X<0]Pr(X<0)=νp−λ(1−p)=(ν+λ)p−λ.
Igualar o produto dessas duas expressões com 1 fornece um relacionamento essencial entre as variáveis:1
1=E[X]E[1X]=((μ+1)p−1)((ν+λ)p−λ).
1=E[X]E[1X]=((μ+1)p−1)((ν+λ)p−λ).(*)
Reformulation of the Problem
Suppose the parts of XX--YY and ZZ--are any positive random variables (degenerate or not). That determines μ,ν,μ,ν, and λλ. When can we find pp, with 0<p<10<p<1, for which (∗)(∗) holds?
This clearly articulates the "balancing" insight previously stated only vaguely: we are going to hold YY and ZZ fixed and hope to find a value of pp that appropriately balances their relative contributions to XX. Although it's not immediately evident that such a pp need exist, what is clear is that it depends only on the moments E[Y]E[Y], E[1/Y]E[1/Y], E[Z]E[Z], and E[1/Z]E[1/Z]. The problem thereby is reduced to relatively simple algebra--all the analysis of random variables has been completed.
Solution
This algebraic problem isn't too hard to solve, because (∗)(∗) is at worst a quadratic equation for pp and the governing inequalities (1)(1) and (2)(2) are relatively simple. Indeed, (∗)(∗) tells us the product of its roots p1p1 and p2p2 is
p1p2=(λ−1)1(μ+1)(ν+λ)≥0
p1p2=(λ−1)1(μ+1)(ν+λ)≥0
and the sum is
p1+p2=(2λ+λμ+ν)1(μ+1)(ν+λ)>0.
p1+p2=(2λ+λμ+ν)1(μ+1)(ν+λ)>0.
Therefore both roots must be positive. Furthermore, their average is less than 11, because
1−(p1+p2)2=λμ+ν+2μν2(μ+1)(ν+λ)>0.
1−(p1+p2)2=λμ+ν+2μν2(μ+1)(ν+λ)>0.
(By doing a bit of algebra, it's not hard to show the larger of the two roots does not exceed 11, either.)
A Theorem
Here is what we have found:
Given any two positive random variables YY and ZZ (at least one of which is nondegenerate) for which E[Y]E[Y], E[1/Y]E[1/Y], E[Z]E[Z], and E[1/Z]E[1/Z] exist and are finite. Then there exist either one or two values pp, with 0<p<1, that determine a mixture variable X with weight p for Y and weight 1−p for −Z and for which E[X]E[1/X]=1. Every such instance of a random variable X with E[X]E[1/X]=1 is of this form.
That gives us a rich set of examples indeed!
Constructing the Simplest Possible Example
Having characterized all examples, let's proceed to construct one that is as simple as possible.
For the negative part Z, let's choose a degenerate variable--the very simplest kind of random variable. It will be scaled to make its value 1, whence λ=1. The solution of (∗) includes p1=0, reducing it to an easily solved linear equation: the only positive root is
p=11+μ+11+ν.
For the positive part Y, we obtain nothing useful if Y is degenerate, so let's give it some probability at just two distinct positive values a<b, say Pr(X=b)=q. In this case the definition of expectation gives
μ=E[Y]=(1−q)a+qb; ν=E[1/Y]=(1−q)/a+q/b.
To make this even simpler, let's make Y and 1/Y identical: this forces q=1−q=1/2 and a=1/b. Now
μ=ν=b+1/b2.
The solution (3) simplifies to
p=21+μ=42+b+1/b.
How can we make this involve simple numbers? Since a<b and ab=1, necessarily b>1. Let's choose the simplest number greater than 1 for b; namely, b=2. The foregoing formula yields p=4/(2+2+1/2)=8/9 and our candidate for the simplest possible example therefore is
Pr(X=2)=Pr(X=b)=Pr(Y=b)p=qp=1289=49;Pr(X=1/2)=Pr(X=a)=Pr(Y=a)p=qp=⋯=49;Pr(X=−1)=Pr(Z=1)(1−p)=1−p=19.
This is the very example offered in the textbook.