O pessoal da "teoria da amostragem" dirá que essa estimativa não existe. Mas você pode obter um, apenas precisa ser razoável quanto às informações anteriores e fazer um trabalho matemático muito mais difícil.
Se você especificou um método bayesiano de estimativa, e o posterior é o mesmo que o anterior, é possível dizer que os dados não dizem nada sobre o parâmetro. Como as coisas podem ficar "singulares" para nós, não podemos usar espaços de parâmetros infinitos. Estou assumindo que, porque você usa a correlação de Pearson, você tem uma probabilidade normal bivariada:
onde
Qi=(xi-μx)2
p(D|μx,μy,σx,σy,ρ)=(σxσy2π(1−ρ2)−−−−−−−−√)−Nexp(−∑iQi2(1−ρ2))
Qi=(xi−μx)2σ2x+(yi−μy)2σ2y−2ρ(xi−μx)(yi−μy)σxσy
Agora, para indicar que um conjunto de dados pode ter o mesmo valor, escreva e obtemos:yi=y
onde
s2x=1
∑iQi=N[(y−μy)2σ2y+s2x+(x¯¯¯−μx)2σ2x−2ρ(x¯¯¯−μx)(y−μy)σxσy]
s2x=1N∑i(xi−x¯¯¯)2
E assim a sua probabilidade depende de quatro números, . Então, você deseja uma estimativa de ρ , portanto, é necessário multiplicar por um anterior e integrar os parâmetros de incômodo μ x , μ y , σ x , σ y . Agora, para nos prepararmos para a integração, "completamos o quadrado"
∑ i Q is2x,y,x¯¯¯,Nρμx,μy,σx,σy
∑iQi1−ρ2=N⎡⎣⎢⎢(μy−[y−(x¯¯¯−μx)ρσyσx])2σ2y(1−ρ2)+s2xσ2x(1−ρ2)+(x¯¯¯−μx)2σ2x⎤⎦⎥⎥
Agora devemos errar por precaução e garantir uma probabilidade adequadamente normalizada. Dessa forma, não podemos ter problemas. Uma dessas opções é usar um prior fracamente informativo, que apenas restringe o intervalo de cada um. Portanto, temos para as médias com plano anterior e L σ < σ x , σ y < U σ para os desvios padrão com jeffreys anteriores. É fácil estabelecer esses limites com um pouco de "senso comum" pensando sobre o problema. Vou pegar um anterior não especificado para ρLμ<μx,μy<UμLσ<σx,σy<Uσρ, e assim obtemos (uniforme deve funcionar ok, se não truncar a singularidade em ):±1
p(ρ,μx,μy,σx,σy)=p(ρ)Aσxσy
Onde . Isso fornece um posterior de:A=2(Uμ−Lμ)2[log(Uσ)−log(Lσ)]2
p(ρ|D)=∫p(ρ,μx,μy,σx,σy)p(D|μx,μy,σx,σy,ρ)dμydμxdσxdσy
=p(ρ)A[2π(1−ρ2)]N2∫UσLσ∫UσLσ(σxσy)−N−1exp(−Ns2x2σ2x(1−ρ2))×
∫UμLμexp(−N(x¯¯¯−μx)22σ2x)∫UμLμexp⎛⎝⎜⎜−N(μy−[y−(x¯¯¯−μx)ρσyσx])22σ2y(1−ρ2)⎞⎠⎟⎟dμydμxdσxdσy
Now the first integration over μy can be done by making a change of variables z=N−−√μy−[y−(x¯¯¯−μx)ρσyσx]σy1−ρ2√⟹dz=N√σy1−ρ2√dμy and the first integral over μy becomes:
σy2π(1−ρ2)−−−−−−−−√N−−√⎡⎣⎢Φ⎛⎝⎜Uμ−[y−(x¯¯¯−μx)ρσyσx]σyN√1−ρ2−−−−−√⎞⎠⎟−Φ⎛⎝⎜Lμ−[y−(x¯¯¯−μx)ρσyσx]σyN√1−ρ2−−−−−√⎞⎠⎟⎤⎦⎥
And you can see from here, no analytic solutions are possible. However, it is also worthwhile to note that the value ρ has not dropped out of the equations. This means that the data and prior information still have something to say about the true correlation. If the data said nothing about the correlation, then we would be simply left with p(ρ) as the only function of ρ in these equations.
It also shows how that passing to the limit of infinite bounds for μy "throws away" some of the information about ρ, which is contained in the complicated looking normal CDF function Φ(.). Now if you have a lot of data, then passing to the limit is fine, you don't loose much, but if you have very scarce information, such as in your case - it is important keep every scrap you have. It means ugly maths, but this example is not too hard to do numerically. So we can evaluate the integrated likelihood for ρ at values of say −0.99,−0.98,…,0.98,0.99 fairly easily. Just replace the integrals by summations over a small enough intervals - so you have a triple summation