Meu entendimento atual da noção "intervalo de confiança com nível de confiança " é que, se tentássemos calcular o intervalo de confiança várias vezes (sempre com uma nova amostra), ele conteria o parâmetro correto do Tempo.
Embora eu perceba que isso não é o mesmo que "probabilidade de que o parâmetro verdadeiro esteja nesse intervalo", há algo que quero esclarecer.
[Major Update]
Antes de calcularmos um intervalo de confiança de 95%, há uma probabilidade de 95% de que o intervalo que calculamos cubra o parâmetro true. Depois de calcularmos o intervalo de confiança e obtermos um intervalo específico , não podemos mais dizer isso. Não podemos sequer argumentar de maneira não frequente que temos 95% de certeza de que o verdadeiro parâmetro estará em ; pois, se pudéssemos, contradiz contra exemplos como este: o que, precisamente, é um intervalo de confiança?[ a , b ]
Não quero fazer disso um debate sobre a filosofia da probabilidade; em vez disso, estou procurando uma explicação matemática precisa de como e por que ver o intervalo específico muda (ou não muda) a probabilidade de 95% que tínhamos antes de ver esse intervalo. Se você argumenta que "depois de ver o intervalo, a noção de probabilidade não faz mais sentido", tudo bem, vamos trabalhar em uma interpretação da probabilidade na qual faz sentido.
Mais precisamente:
Suponha que programamos um computador para calcular um intervalo de confiança de 95%. O computador processa alguns números, calcula um intervalo e se recusa a me mostrar o intervalo até que eu digite uma senha. Antes de inserir a senha e ver o intervalo (mas depois que o computador já a calculou), qual é a probabilidade de o intervalo conter o parâmetro true? É 95%, e esta parte não está em debate : esta é a interpretação da probabilidade que me interessa para esta questão em particular (percebo que existem questões filosóficas importantes que estou suprimindo, e isso é intencional).
Porém, assim que eu digitar a senha e fizer o computador me mostrar o intervalo calculado, a probabilidade (que o intervalo contenha o parâmetro true) poderá mudar. Qualquer alegação de que essa probabilidade nunca mude contraria o contraexemplo acima. Nesse contra-exemplo, a probabilidade pode mudar de 50% para 100%, mas ...
Existem exemplos em que a probabilidade muda para algo diferente de 100% ou 0% (EDIT: e se sim, quais são eles)?
Existem exemplos em que a probabilidade não muda depois de ver o intervalo específico (ou seja, a probabilidade de o parâmetro verdadeiro estar em ainda é de 95%)?[ a , b ]
Como (e por que) a probabilidade muda em geral depois de ver o computador cuspir ?
[Editar]
Obrigado por todas as ótimas respostas e discussões úteis!