De uma perspectiva de probabilidade bayesiana, por que um intervalo de confiança de 95% não contém o parâmetro verdadeiro com 95% de probabilidade?


14

Na página da Wikipedia sobre intervalos de confiança :

... se intervalos de confiança são construídos em muitas análises de dados separadas de experimentos repetidos (e possivelmente diferentes), a proporção de tais intervalos que contêm o valor verdadeiro do parâmetro corresponderá ao nível de confiança ...

E da mesma página:

Um intervalo de confiança não prevê que o valor real do parâmetro tenha uma probabilidade específica de estar no intervalo de confiança, dados os dados realmente obtidos.

Se entendi direito, essa última afirmação é feita com a interpretação freqüentista da probabilidade em mente. Entretanto, de uma perspectiva de probabilidade bayesiana, por que um intervalo de confiança de 95% não contém o parâmetro verdadeiro com 95% de probabilidade? E se não, o que há de errado com o seguinte raciocínio?

Se eu tenho um processo que eu sei que produz uma resposta correta 95% das vezes, a probabilidade de a resposta seguinte estar correta é de 0,95 (dado que não tenho informações extras sobre o processo). Da mesma forma, se alguém me mostrar um intervalo de confiança criado por um processo que conterá o parâmetro verdadeiro 95% das vezes, não devo estar certo ao dizer que ele contém o parâmetro verdadeiro com probabilidade de 0,95, considerando o que sei?

Essa pergunta é semelhante, mas não é a mesma que, por que um IC de 95% não implica uma chance de 95% de conter a média? As respostas a essa pergunta foram focadas no motivo pelo qual um IC de 95% não implica uma chance de 95% de conter a média de uma perspectiva freqüentista. Minha pergunta é a mesma, mas de uma perspectiva de probabilidade bayesiana.


Uma maneira de pensar nisso é o IC 95% é uma "média de longo prazo". Agora, existem muitas maneiras de dividir seus casos de "curto prazo" para obter uma cobertura bastante arbitrária - mas, quando calculada a média, dê 95% do total. Outra maneira mais abstrata é gerar para tais que . Há um número infinito de maneiras de fazer isso. Aqui indica se o IC criado com o i-ésimo conjunto de dados continha o parâmetro e é a probabilidade de cobertura para este caso. i = 1 , 2 , ... Σ i = 1 p i = 0,95 x i p ixiBernoulli(pi)i=1,2,i=1pi=0.95xipi
probabilityislogic

Respostas:


11

Atualização : Com o benefício de uma retrospectiva de alguns anos, escrevi um tratamento mais conciso do essencialmente o mesmo material em resposta a uma pergunta semelhante.


Como construir uma região de confiança

Vamos começar com um método geral para construir regiões de confiança. Pode ser aplicado a um único parâmetro, para gerar um intervalo de confiança ou um conjunto de intervalos; e pode ser aplicado a dois ou mais parâmetros, para gerar regiões de confiança dimensional mais alta.

Afirmamos que as estatísticas observadas D originam de uma distribuição com os parâmetros θ , ou seja, a distribuição amostral s(d|θ) sobre as possíveis estatísticas d , e buscamos uma região de confiança para θ no conjunto de valores possíveis Θ . Definir uma região de maior densidade (HDR): o h -HDR de um PDF é o menor subconjunto de seu domínio que suporta a probabilidade h . Denote o h -HDR de s(d|ψ) como Hψ , para qualquer ψΘ . Então, aregião de confiançah paraθ , dados os dadosD , é o conjuntoCD={ϕ:DHϕ} . Um valor típico deh seria 0,95.

Uma Interpretação Frequentista

A partir da definição anterior de uma regi de confian segue

dHψψCd
com Cd={ϕ:dHϕ} . Agora imagine um grande conjunto de ( imaginárias observações) {Di} , feita sob circunstâncias semelhantes a D . ie São amostras de s(d|θ) . Como Hθ suporta a massa de probabilidade h dos PDF s(d|θ) ,P(DiHθ)=h para todos osi . Por conseguinte, a fracção de{Di} para os quaisDiHθ éh . E assim, usando o equivalência acima, a fracção de{Di} para os quaisθCDi também éh .

Portanto, é isso que a reivindicação freqüentista da região de confiança h para θ equivale a:

Tomar um grande número de observações imaginárias {Di} a partir da distribuição de amostragem s(d|θ) que deu origem ao estatísticas observada D . Então, θ fica dentro de uma fração h das regiões de confiança análogas mas imaginárias {CDEu} .

A região de confiança CD portanto, não reivindica a probabilidade de que θ esteja em algum lugar! A razão é simplesmente que não há nada na fomulação que nos permita falar de uma distribuição de probabilidade sobre θ . A interpretação é apenas uma superestrutura elaborada, que não melhora a base. A base é apenas s(d|θ) e D , onde θ não aparece como uma quantidade distribuída e não há informações que possamos usar para resolver isso. Existem basicamente duas maneiras de obter uma distribuição sobre θ :

  1. Atribua uma distribuição diretamente da informação disponível: p(θ|Eu) .
  2. Relacione θ a outra quantidade distribuída: p(θ|Eu)=p(θx|Eu)dx=p(θ|xEu)p(x|Eu)dx .

Nos dois casos, θ deve aparecer à esquerda em algum lugar. Os freqüentistas não podem usar nenhum dos métodos, porque ambos exigem um prévio herético.

Uma visão bayesiana

O máximo que um bayesiano pode tirar da h região de confiança CD , dada sem qualificação, é simplesmente a interpretação direta: que é o conjunto de ϕ para o qual D enquadra no h -HDR Hϕ da distribuição amostral s(d|ϕ) . Isso não nos diz necessariamente muito sobre θ , e aqui está o porquê.

A probabilidade de que θCD , dado D e a informação de base Eu , seja:

P(θCD|DI)=CDp(θ|DI)dθ=CDp(D|θI)p(θ|I)p(D|I)dθ
Observe que, diferentemente da interpretação freqüentista, imediatamente exigimos uma distribuição sobreθ. A informação de fundoInos diz, como antes, que a distribuição de amostragem és(d|θ):
P(θCD|DI)=CDs(D|θ)p(θ|I)p(D|I)dθ=CDs(D|θ)p(θ|I)dθp(D|I)i.e.P(θCD|DI)=CDs(D|θ)p(θ|I)dθs(D|θ)p(θ|I)dθ
Agora, em geral, essa expressão não é avaliada comoh, ou seja, aregião de confiançahCDnem sempre contémθcom probabilidadeh. De fato, pode ser totalmente diferente deh. Existem, no entanto, muitas situações comuns em que eleéavaliado parah, razão pela qual as regiões de confiança geralmente são consistentes com nossas intuições probabilísticas.

Por exemplo, suponha que o PDF da junta anterior de d e θ seja simétrico em que pd,θ(d,θ|I)=pd,θ(θ,d|I) . (Claramente, isso envolve a suposição de que o PDF varia sobre o mesmo domínio em d e θ .) Então, se o anterior for p(θ|I)=f(θ) , teremos s(D|θ)p(θ|I)=s(D|θ)f(θ)=s(θ|D)f(D) . Portanto,

P(θCD|DI)=CDs(θ|D)dθs(θ|D)dθi.e.P(θCD|DI)=CDs(θ|D)dθ
A partir da definição de um HDR sabemos que, para qualquerψΘ
Hψs(d|ψ)dd=hand therefore thatHDs(d|D)dd=hor equivalentlyHDs(θ|D)dθ=h
Portanto, dado ques(d|θ)f(θ)=s(θ|d)f(d),CD=HDimplicaP(θCD|DI)=h. O antecedente satisfaz
CD=HDψ[ψCDψHD]
Aplicando a equivalência perto do topo:
CD=HDψ[DHψψHD]
Assim, a região de confiançaCD contémθ com probabilidadeh se para todos os valores possíveisψ deθ , oh -HDR des(d|ψ) contémD , se e apenas se oh -HDR des(d|D) contémψ .

Agora, a relação simétrica DHψψHD é satisfeito por todos ψ quando s(ψ+δ|ψ)=s(Dδ|D) para todos δ que abrangem o suporte de s(d|D) e s(d|ψ) . Portanto, podemos formar o seguinte argumento:

  1. s(d|θ)f(θ)=s(θ|d)f(d) (premissa)
  2. ψδ[s(ψ+δ|ψ)=s(Dδ|D)] (premissa)
  3. ψδ[s(ψ+δ|ψ)=s(Dδ|D)]ψ[DHψψHD]
  4. ψ[DHψψHD]
  5. ψ[DHψψHD]CD=HD
  6. CD=HD
  7. [s(d|θ)f(θ)=s(θ|d)f(d)CD=HD]P(θCD|DI)=h
  8. P(θCD|DI)=h

Vamos aplicar o argumento para um intervalo de confiança da média de uma distribuição normal 1-D (μ,σ) , dado uma amostra média x¯ a partir de n medições. Temos θ=μ e d=x¯ , de modo que a distribuição de amostragem é de

s(d|θ)=nσ2πen2σ2(dθ)2
Suponha também que não sabemos nada sobreθantes de coletar os dados (exceto que é um parâmetro de localização) e, portanto, atribua um uniforme anterior:f(θ)=k. Claramente agora temoss(d|θ)f(θ)=s(θ|d)f(d), de modo que a primeira premissa é satisfeita. Sejas(d|θ)=g((dθ)2) . (ou seja, pode ser escrito dessa forma.) Então
s(ψ+δ|ψ)=g((ψ+δψ)2)=g(δ2)ands(Dδ|D)=g((DδD)2)=g(δ2)so thatψδ[s(ψ+δ|ψ)=s(Dδ|D)]
que a segunda premissa é satisfeita. Ambas as instalações sendo verdade, as ligações argumento de oito pontos nos concluir que a probabilidade de queθsitua-se no intervalo de confiançaCDéh!

Portanto, temos uma ironia divertida:

  1. O freqüentador que atribui o intervalo de confiança h não pode dizer que P(θCD)=h , não importa quão inocentemente uniforme θ pareça antes de incorporar os dados.
  2. A Bayesian que não iria atribuir um h intervalo de confiança dessa forma sabe de qualquer forma que P(θCD|DI)=h .

Considerações finais

Foram identificadas as condições (isto é, os dois locais) em que o h regi de confian, de facto, produzem probabilidade h que θCD . Um freqüentador confunde a primeira premissa, porque envolve um prior em θ , e esse tipo de negócio é inevitável na rota para uma probabilidade. Mas para um bayesiano, é aceitável --- não, essencial. Estas condições são suficientes, mas não necessário, de forma que há muitas outras circunstâncias em que o Bayesiana P(θCD|DI) é igual a h . Igualmente, porém, existem muitas circunstâncias em queP(θCD|DI)h , especialmente quando as informações anteriores são significativas.

Nós aplicamos uma análise Bayesiana apenas como um Bayesian Would consistente, dada a informação na mão , incluindo estatísticas D . Mas um Bayesian, se ele puder, vai aplicar seus métodos para as medições brutas em vez --- ao {xi} , ao invés de x¯ . Muitas vezes, o recolhimento dos dados brutos nas estatísticas resumidas D destrói as informações nos dados; e as estatísticas resumidas são incapazes de falar de maneira tão eloquente quanto os dados originais sobre os parâmetros θ .


Seria correto dizer que um bayesiano está comprometido em levar em consideração todas as informações disponíveis, enquanto a interpretação dada na pergunta ignorou D em algum sentido?
Qbolec # 9/18

É uma boa imagem mental para ilustrar a situação: imagine uma imagem em escala de cinza, onde a intensidade do pixel x, y é o ppb conjunto do parâmetro real sendo y e o status observado sendo x. Em cada linha y, marcamos pixels com 95% de massa da linha. Para cada estatística observada x, definimos CI (x) como o conjunto de linhas que marcaram pixels na coluna x. Agora, se escolhermos x, y aleatoriamente, o IC (x) conterá y se x, y foi marcado e a massa de pixels marcados é de 95% para cada y. Então, frequentistas dizer que mantendo y fixo, o acaso é de 95%, OP diz que não fixação y também dá 95%, e Bayesians corrigir y e não sei
qbolec

@qbolec It is correct to say that in the Bayesian method one cannot arbitrarily ignore some information while taking account of the rest. Frequentists say that for all y the expectation of yCI(x) (as a Boolean integer) under the sampling distribution prob(x|y,I) is 0.95. The frequentist 0.95 is not a probability but an expectation.
CarbonFlambe--Reinstate Monica

6

from a Bayesian probability perspective, why doesn't a 95% confidence interval contain the true parameter with 95% probability?

Two answers to this, the first being less helpful than the second

  1. There are no confidence intervals in Bayesian statistics, so the question doesn't pertain.

  2. In Bayesian statistics, there are however credible intervals, which play a similar role to confidence intervals. If you view priors and posteriors in Bayesian statistics as quantifying the reasonable belief that a parameter takes on certain values, then the answer to your question is yes, a 95% credible interval represents an interval within which a parameter is believed to lie with 95% probability.

If I have a process that I know produces a correct answer 95% of the time then the probability of the next answer being correct is 0.95 (given that I don't have any extra information regarding the process).

yes, the process guesses a right answer with 95% probability

Similarly if someone shows me a confidence interval that is created by a process that will contain the true parameter 95% of the time, should I not be right in saying that it contains the true parameter with 0.95 probability, given what I know?

Just the same as your process, the confidence interval guesses the correct answer with 95% probability. We're back in the world of classical statistics here: before you gather the data you can say there's a 95% probability of randomly gathered data determining the bounds of the confidence interval such that the mean is within the bounds.

With your process, after you've gotten your answer, you can't say based on whatever your guess was, that the true answer is the same as your guess with 95% probability. The guess is either right or wrong.

And just the same as your process, in the confidence interval case, after you've gotten the data and have an actual lower and upper bound, the mean is either within those bounds or it isn't, i.e. the chance of the mean being within those particular bounds is either 1 or 0. (Having skimmed the question you refer to it seems this is covered in much more detail there.)

How to interpret a confidence interval given to you if you subscribe to a Bayesian view of probability.

There are a couple of ways of looking at this

  1. Technically, the confidence interval hasn't been produced using a prior and Bayes theorem, so if you had a prior belief about the parameter concerned, there would be no way you could interpret the confidence interval in the Bayesian framework.

  2. Another widely used and respected interpretation of confidence intervals is that they provide a "plausible range" of values for the parameter (see, e.g., here). This de-emphasises the "repeated experiments" interpretation.

Moreover, under certain circumstances, notably when the prior is uninformative (doesn't tell you anything, e.g. flat), confidence intervals can produce exactly the same interval as a credible interval. In these circumstances, as a Bayesianist you could argue that had you taken the Bayesian route you would have gotten exactly the same results and you could interpret the confidence interval in the same way as a credible interval.


but for sure confidence intervals exist even if I subscribe to a bayesian view of probability, they just wont dissapear, right? :)The situation I was asking about was how to interpret a confidence interval given to you if you subscribe to a Bayesian view of probability.
Rasmus Bååth

The problem is that confidence intervals aren't produced using a Bayesian methodology. You don't start with a prior. I'll edit the post to add something which might help.
TooTone

2

I'll give you an extreme example where they are different.

Suppose I create my 95% confidence interval for a parameter θ as follows. Start by sampling the data. Then generate a random number between 0 and 1. Call this number u. If u is less than 0.95 then return the interval (,). Otherwise return the "null" interval.

Now over continued repititions, 95% of the CIs will be "all numbers" and hence contain the true value. The other 5% contain no values, hence have zero coverage. Overall, this is a useless, but technically correct 95% CI.

The Bayesian credible interval will be either 100% or 0%. Not 95%.


So is it correct to say that before seeing a confidence interval there is a 95% probability that it will contain the true parameter, but for any given confidence interval the probability that it covers the true parameter depends on the data (and our prior)? To be honest, what I'm really struggling with is how useless confidence intervals sounds (credible intervals I like on the other hand) and the fact that I never the less will have to teach them to our students next week... :/
Rasmus Bååth

This question has some more examples, plus a very good paper comparing the two approaches
probabilityislogic

1

" da perspectiva bayesiana de probabilidade, por que um intervalo de confiança de 95% não contém o parâmetro verdadeiro com 95% de probabilidade? "

Nas estatísticas bayesianas, o parâmetro não é um valor desconhecido, é uma distribuição. Não há intervalo que contenha o "valor verdadeiro"; para um ponto de vista bayesiano, isso nem faz sentido. O parâmetro é uma variável aleatória; você pode conhecer perfeitamente a probabilidade desse valor estar entre x_inf e x_max, se você conhece a distribuição. É apenas uma mentalidade diferente sobre os parâmetros, geralmente os bayesianos usavam o valor mediano ou médio da distribuição do parâmetro como uma "estimativa". Não há um intervalo de confiança nas estatísticas bayesianas, algo semelhante é chamado intervalo de credibilidade .

Agora, do ponto de vista frequencista, o parâmetro é um "Valor Fixo", não uma variável aleatória. Você pode realmente obter um intervalo de probabilidade (95%)? Lembre-se de que é um valor fixo, não uma variável aleatória com uma distribuição conhecida. É por isso que você passou o texto : "Um intervalo de confiança não prevê que o valor real do parâmetro tenha uma probabilidade específica de estar no intervalo de confiança, dados os dados realmente obtidos".

A idéia de repetir a experiência repetidamente ... não é um raciocínio bayesiano, é um conceito frequencista. Imagine um experimento real ao vivo que você pode fazer apenas uma vez na vida, você pode / deve criar esse intervalo de confiança (do ponto de vista clássico) ?.

Mas ... na vida real, os resultados podem chegar bem perto (bayesiano x frequencista), talvez seja por isso que poderia ser confuso.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.