A inferência preditiva não bayesiana (além do caso SLR) é um campo relativamente recente. Sob o título de "não Bayesiano", podemos subdividir as abordagens naquelas que são freqüentistas "clássicas" versus aquelas que são baseadas na "probabilidade".
Predição Frequentista Clássica
Como você sabe, o "padrão ouro" no freqüentismo é alcançar a cobertura nominal sob amostragem repetida. Por exemplo, queremos que uma região de confiança de 95% contenha os parâmetros verdadeiros em 95% das amostras da mesma população subjacente. Ou, esperamos cometer erros do tipo I e II em um teste de hipótese em média igual a e β . Por fim, e mais pertinente a essa pergunta, esperamos que nosso intervalo de previsão de 95% contenha o próximo ponto da amostra 95% do tempo.αβ
Agora, geralmente eu tenho problemas com a forma como os IPs clássicos são apresentados e ensinados na maioria dos cursos de estatística, porque a tendência esmagadora é interpretá-los como intervalos preditivos posteriores Bayesianos, o que eles decididamente não são. Mais fundamentalmente, eles estão falando sobre probabilidades diferentes! Os bayesianos não reivindicam o desempenho amostral repetido de suas quantidades (caso contrário, eles seriam freqüentadores). Segundo, um IP bayesiano está realmente realizando algo mais semelhante em espírito a um intervalo de tolerância clássica do que a um intervalo de predição clássico.
Para referência: Os intervalos de tolerância precisam ser especificados por duas probabilidades: A confiança e a cobertura. A confiança nos diz com que frequência está correta em amostras repetidas. A cobertura nos diz a medida de probabilidade mínima do intervalo sob a distribuição verdadeira (em oposição ao PI, que fornece a medida de probabilidade esperada ... novamente sob amostragem repetida). Isso é basicamente o que o IP bayesiano está tentando fazer também, mas sem nenhuma reivindicação de amostragem repetida.
Portanto, a lógica básica da regressão linear simples Stats 101 é derivar as propriedades de amostragem repetidas do PI sob a suposição de normalidade. É a abordagem frequentista + gaussiana que normalmente é considerada "clássica" e ensinada nas aulas de introdução às estatísticas. Isso se baseia na simplicidade dos cálculos resultantes (consulte a Wikipedia para uma boa visão geral).
As distribuições de probabilidade não gaussianas são geralmente problemáticas porque podem não ter quantidades fundamentais que podem ser perfeitamente invertidas para obter um intervalo. Portanto, não há um método "exato" para essas distribuições, geralmente porque as propriedades do intervalo dependem dos verdadeiros parâmetros subjacentes.
Reconhecendo essa incapacidade, surgiu outra classe de previsão (e de inferência e estimativa) com a abordagem de probabilidade.
Inferência baseada em probabilidade
As abordagens baseadas em probabilidades, como muitos conceitos estatísticos modernos, podem ser rastreadas até Ronald Fisher. A idéia básica desta escola é que, exceto em casos especiais, nossas inferências estatísticas são logicamente mais fracas do que quando lidamos com inferências de uma distribuição normal (cujas estimativas de parâmetros são ortogonais ), onde podemos fazer declarações de probabilidade exatas. Nesta visão de inferência, deve-se realmente evitar afirmações sobre probabilidade, exceto no caso exato, caso contrário, deve-se fazer afirmações sobre a probabilidade e reconhecer que não se sabe a probabilidade exata de erro (no sentido freqüentista).
Portanto, podemos ver a probabilidade como semelhante à probabilidade bayesiana, mas sem os requisitos de integrabilidade ou a possível confusão com a probabilidade freqüentista. Sua interpretação é inteiramente subjetiva ... embora uma taxa de probabilidade de 0,15 seja frequentemente recomendada para inferência de parâmetro único.
No entanto, não se costuma ver trabalhos que explicitamente fornecem "intervalos de probabilidade". Por quê? Parece que isso é em grande parte uma questão de sociologia, pois todos nos acostumamos a declarações de confiança baseadas em probabilidades. Em vez disso, o que você costuma ver é um autor se referindo a um intervalo de confiança "aproximado" ou "assintótico" de tal e tal. Esses intervalos são amplamente derivados de métodos de probabilidade, em que contamos com a distribuição qui-quadrado assintótica da razão de verossimilhança da mesma maneira que confiamos na normalidade assintótica da média da amostra.
Com esse "conserto", agora podemos construir Regiões de Confiança "aproximadas" a 95% com quase tanta consistência lógica quanto os bayesianos.
Do IC ao PI na Estrutura de Verossimilhança
O sucesso e a facilidade da abordagem de probabilidade acima levaram a idéias sobre como estendê-la à previsão. Um artigo de pesquisa muito bom sobre isso é apresentado aqui (não reproduzirei sua excelente cobertura). Pode ser rastreada até David Hinkley no final dos anos 70 (veja JSTOR ), que cunhou o termo. Ele o aplicou ao eterno " Problema Binomial de Previsão de Pearson ". Vou resumir a lógica básica.
yyy
As regras básicas para se livrar dos parâmetros "incômodos" para obter uma probabilidade preditiva são as seguintes:
- μ , σ
- Se um parâmetro é aleatório (por exemplo, outros dados não observados ou "efeitos aleatórios"), você os integra (exatamente como na abordagem bayesiana).
A distinção entre um parâmetro fixo e aleatório é exclusiva da inferência de probabilidade, mas tem conexões com modelos de efeitos mistos, nos quais parece que as estruturas Bayesiana, Frequentista e de Probabilidade colidem.
Esperemos que isso tenha respondido sua pergunta sobre a ampla área de previsão "não bayesiana" (e inferência para esse assunto). Como os hiperlinks podem mudar, também farei um plug-in para o livro "Em toda a probabilidade: modelagem estatística e inferência usando a probabilidade", que discute a estrutura de verossimilhança moderna em profundidade, incluindo uma boa quantidade das questões epistemológicas de probabilidade versus Bayesiano vs frequentista inferência e previsão.
Referências
- Intervalos de previsão: Métodos não paramétricos . Wikipedia. Acessado em 13/9/2015.
- Bjornstad, Jan F. Probabilidade preditiva: uma revisão. Statist. Sci. 5 (1990), n. 2, 242--254. doi: 10.1214 / ss / 1177012175.
http://projecteuclid.org/euclid.ss/1177012175 .
- David Hinkley. Probabilidade preditiva . Os Anais das Estatísticas, vol. 7, No. 4 (Jul., 1979), pp. 718-728 Publicado por: Instituto de Estatística Matemática URL estável: http://www.jstor.org/stable/2958920
- Yudi Pawitan. Com toda a probabilidade: modelagem estatística e inferência usando a probabilidade. Imprensa da Universidade de Oxford; 1 edição (30 de agosto de 2001). ISBN-10: 0198507658, ISBN-13: 978-0198507659. Especialmente capítulos 5.5-5.9, 10 e 16.