Você encontrou um dos resultados mais famosos da teoria das probabilidades e das estatísticas. Escreverei uma resposta, embora tenha certeza de que essa pergunta já foi feita (e respondida) antes neste site.
Primeiro, observe que o pdf de Y= X2 não pode ser o mesmo que o de X pois Y não será negativo. Para derivar a distribuição de Y , podemos usar três métodos, a técnica mgf, a técnica cdf e a técnica de transformação de densidade. Vamos começar.
Técnica de função geradora de momento .
Ou técnica de função característica, o que você quiser. Temos que encontrar o mgf de Y= X2 . Então, precisamos calcular a expectativa
E[ et X2]
Usando a Lei do Inconsciente estatístico , tudo o que temos a fazer é calcular esta integral sobre a distribuição de X . Portanto, precisamos calcular
E[etX2]=∫∞−∞12π−−√etx2e−x22dx=∫∞−∞12π−−√exp{−x22(1−2t)}dt=∫∞−∞(1−2t)1/2(1−2t)1/212π−−√exp{−x22(1−2t)}dt=(1−2t)−1/2,t<12
onde na última linha comparamos a integral com uma integral gaussiana com zero médio e variância 1(1−2t) . É claro que isso se integra a um sobre a linha real. O que você pode fazer com esse resultado agora? Bem, você pode aplicar uma transformação inversa muito complexa e determinar o pdf que corresponde a este MGF ou pode simplesmente reconhecê-lo como o MGF de uma distribuição qui-quadrado com um grau de liberdade. (Lembre-se de que uma distribuição qui-quadrado é um caso especial de uma distribuição gama comα=r2 ,rsendo os graus de liberdade eβ=2).
Técnica CDF
Esta é talvez a coisa mais fácil que você pode fazer e é sugerida por Glen_b nos comentários. De acordo com essa técnica, calculamos
FY(y)=P(Y≤y)=P(X2≤y)=P(|X|≤y√)
e como as funções de distribuição definem as funções de densidade, depois de obtermos uma expressão simplificada, apenas nos diferenciamos em relação a y para obter nosso pdf. Nós temos então
FY(y)=P(|X|≤y√)=P(−y√<X<y√)=Φ(y√)−Φ(−y√)
Φ(.)y
fY(y)=F′Y(y)=12y√ϕ(y√)+12y√ϕ(−y√)=1y√ϕ(y√)
where ϕ(.) is now the pdf of a standard normal variable and we have used the fact that it is symmetric about zero. Hence
fY(y)=1y√12π−−√e−y2,0<y<∞
which we recognize as the pdf of a chi-squared distribution with one degree of freedom (You might be seeing a pattern by now).
Density transformation technique
At this point you might wonder, why we do not simply use the transformation technique you are familiar with, that is, for a function Y=g(X) we have that the density of Y is given by
fY(y)=∣∣∣ddyg−1(y)∣∣∣fX(g−1(y))
for y in the range of g. Unfortunately this theorem requires the transformation to be one-to-one which is clearly not the case here. Indeed, we can see that two values of X result in the same value of Y, g being a quadratic transformation. Therefore, this theorem is not applicable.
What is applicable, nevertheless, is an extension of it. Under this extension, we may decompose the support of X (support means the points where the density is non-zero), into disjoint sets such that Y=g(X) defines a one-to-one transformation from these sets into the range of g. The density of Y is then given by the sum over all of these inverse functions and the corresponding absolute Jacobians. In the above notation
fY(y)=∑∣∣∣ddyg−1(y)∣∣∣fX(g−1(y))
where the sum runs over all inverse functions. This example will make it clear.
For y=x2, we have two inverse functions, namely x=±y√ with corresponding absolute Jacobian 12y√ and so the corresponding pdf is found to be
fY(y)=12y√12π−−√e−y/2+12y√12π−−√e−y/2=1y√12π−−√e−y/2,0<y<∞
the pdf of a chi-squared distribution with one degree of freedom. On a side note, I find this technique particularly useful as you no longer have to derive the CDF of the transformation. But of course, these are personal tastes.
So you can go to bed tonight completely assured that the square of a standard normal random variable follows the chi-squared distribution with one degree of freedom.