Como encontrar a média de uma soma de variáveis ​​dependentes?


13

Eu sei que a média da soma das variáveis ​​independentes é a soma das médias de cada variável independente. Isso também se aplica a variáveis ​​dependentes?


@feetwet, apenas remover "obrigado" não é realmente importante o suficiente para gerar uma discussão de 18 meses atrás. FWIW, votei em rejeitar esta edição (mas duas outras pessoas aprovaram, então você não teria visto meu comentário).
gung - Restabelece Monica

1
@gung - Todos os tipos de coisas podem interferir na exibição de perguntas "Ativas". Sua observação foi feita com frequência, e a política do AFAIK, Stack Exchange, é que, apesar dessa desvantagem, edições menores válidas são uma coisa boa .
feetwet 24/05

1
@feetwet, não tenho certeza de quão relevante é uma publicação meta.Photography aqui. Cada site SE tem sua própria meta e suas próprias políticas, decididas pela comunidade. Você pode querer olhar para os tópicos meta.CV relevantes, por exemplo, este: Tratamento de "edições sugeridas" para postagens . Você pode notar que a resposta do whuber cita Jeff Atwood, "pequenas edições, como ... remover apenas a saudação de uma postagem. ... rejeitá-las com muito preconceito", e joran argumenta: "Meu limite para quando uma edição é muito pequena está inversamente relacionada à idade da pergunta ".
gung - Restabelece Monica

1
@gung o post de Fotografia , referenciei links para uma sessão de perguntas e respostas significativa e mais recente sobre o Meta Stack Exchange sobre o assunto . Mas se a resposta de 4 anos do whuber ainda for canônica para a Validação Cruzada, respeitarei isso daqui para frente.
feetwet 24/05

Respostas:


18

A expectativa (considerando a média) é um operador linear .

Isso significa que , entre outras coisas, E(X+Y)=E(X)+E(Y) para quaisquer duas variáveis ​​aleatóriasX eY (para as quais existem expectativas), independentemente de serem independentes ou não.

Podemos generalizar (por exemplo por indução ), de modo que E(i=1nXi)=i=1nE(Xi) desde que cada expectativa E(Xi) existe.

Portanto, sim, a média da soma é igual à soma da média, mesmo que as variáveis ​​sejam dependentes. Mas observe que isso não se aplica à variação! Portanto, enquanto Var(X+Y)=Var(X)+Var(Y) para variáveis ​​independentes, ou mesmo variáveis dependentes mas não correlacionadas , a fórmula geral é Var(X+Y)=Var(X)+Var(Y)+2Cov(X,Y) queCov é a covariância das variáveis.


10

TL; DR:
Supondo que exista, a média é um valor esperado e o valor esperado é uma integral, e as integrais têm a propriedade de linearidade em relação às somas.

TS; DR:
Uma vez que estamos a lidar com a soma de variáveis aleatórias , ou seja, de uma função de muitos deles, a média da soma de E ( Y n ) é em relação ao seu conjunto de distribuição ( assume-se que existem todos os meios e são finitos) Denoting X o vector multivariada do n de RV, a sua densidade de conjunta pode ser escrito como f X ( x ) = f X 1 , . . . n (Yn=i=1nXiE(Yn)XnfX(x)=fX1,...,Xn(x1,...,xn)D=SX1×...×SXn

E[Yn]=DYnfX(x)dx

n

E[Yn]=SXn...SX1[i=1nXi]fX1,...,Xn(x1,...,xn)dx1...dxn

e usando a linearidade das integrais , podemos decompor-se em

=SXn...SX1x1fX1,...,Xn(x1,...,xn)dx1...dxn+......+SXn...SX1xnfX1,...,Xn(x1,...,xn)dx1...dxn

For each n-iterative integral we can re-arrange the order of integration so that, in each, the outer integration is with respect to the variable that is outside the joint density. Namely,

SXn...SX1x1fX1,...,Xn(x1,...,xn)dx1...dxn=SX1x1SXn...SX2fX1,...,Xn(x1,...,xn)dx2...dxndx1

and in general

SXn...SXj...SX1xjfX1,...,Xn(x1,...,xn)dx1...dxj...dxn=
=SXjxjSXn...SXj1SXj+1...SX1fX1,...,Xn(x1,...,xn)dx1...dxj1dxj+1......dxndxj

As we calculate one-by-one the integral in each n-iterative integral (starting from the inside), we "integrate out" a variable and we obtain in each step the "joint-marginal" distribution of the other variables. Each n-iterative integral therefore will end up as SXjxjfXj(xj)dxj.

Bringing it all together we arrive at

E[Yn]=E[i=1nXi]=SX1x1fX1(x1)dx1+...+SXnxnfXn(xn)dxn

But now each simple integral is the expected value of each random variable separately, so

E[i=1nXi]=E(X1)+...+E(Xn)
=i=1nE(Xi)

Note that we never invoked independence or non-independence of the random variables involved, but we worked solely with their joint distribution.


@ssdecontrol This is one upvote I do appreciate, indeed.
Alecos Papadopoulos

1
The expansion into iterated integrals and back again is unnecessary. It complicates a simple argument. You could replace the "TS;DR" section with its last sentence and have a fine answer.
whuber

@whuber One and a half years later, it still escapes me (I mean, without using the "linearity of the expectation operator" fact, that has already been used by the other answer). Any hint so I can rework the answer towards this simple argument?
Alecos Papadopoulos

I think the argument is superfluous. The key to the whole thing is your observation in the last sentence.
whuber
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.