Você pergunta sobre três coisas: (a) como combinar várias previsões para obter uma única previsão, (b) se a abordagem bayesiana pode ser usada aqui e (c) como lidar com probabilidades zero.
Combinar previsões é uma prática comum . Se você tiver várias previsões do que se calcular a média dessas previsões, a previsão combinada resultante deverá ser melhor em termos de precisão do que qualquer uma das previsões individuais. Para calculá-las, você pode usar a média ponderada, onde os pesos são baseados em erros inversos (ou seja, precisão) ou no conteúdo da informação . Se você tivesse conhecimento sobre a confiabilidade de cada fonte, poderia atribuir pesos proporcionais à confiabilidade de cada fonte, para que fontes mais confiáveis tenham maior impacto na previsão final combinada. No seu caso, você não tem nenhum conhecimento sobre a confiabilidade deles, de modo que cada uma das previsões tenha o mesmo peso e possa usar a média aritmética simples das três previsões
0%×.33+50%×.33+100%×.33=(0%+50%+100%)/3=50%
Como foi sugerido nos comentários de @AndyW e @ArthurB. , outros métodos além da média ponderada simples estão disponíveis. Muitos desses métodos são descritos na literatura sobre a média de previsões de especialistas, com os quais eu não estava familiarizado antes, então obrigado pessoal. Na média das previsões de especialistas, às vezes, queremos corrigir o fato de que os especialistas tendem a regredir para a média (Baron et al, 2013), ou tornar suas previsões mais extremas (Ariely et al, 2000; Erev et al, 1994). Para conseguir isso, pode-se usar transformações de previsões individuais , por exemplo, função logitpi
logit(pi)=log(pi1−pi)(1)
chances para o poder -ésimoa
g(pi)=(pi1−pi)a(2)
onde , ou transformação mais geral da forma0<a<1
t(pi)=paipai+(1−pi)a(3)
onde se nenhuma transformação for aplicada, se previsões individuais forem mais extremas, se previsões forem menos extremas, o que é mostrado na figura abaixo (ver Karmarkar, 1978; Baron et al, 2013 )a > 1 0 < a < 1a=1a>10<a<1
Após a média dessas previsões de transformação (usando média aritmética, mediana, média ponderada ou outro método). Se as equações (1) ou (2) foram usadas, os resultados precisam ser transformados de volta usando logit inverso para (1) e probabilidades inversas para (2). Alternativamente, a média geométrica pode ser usada (ver Genest e Zidek, 1986; cf. Dietrich e List, 2014)
p^=∏Ni=1pwii∏Ni=1pwii+∏Ni=1(1−pi)wi(4)
ou abordagem proposta por Satopää et al (2014)
p^=[∏Ni=1(pi1−pi)wi]a1+[∏Ni=1(pi1−pi)wi]a(5)
onde são pesos. Na maioria dos casos, pesos iguais são usados, a menos que exista informação a priori que sugira outra opção. Tais métodos são usados na média de previsões de especialistas para corrigir subconfiança ou excesso de confiança. Em outros casos, você deve considerar se a transformação de previsões para mais ou menos extrema é justificada, pois pode fazer com que a estimativa agregada resultante caia fora dos limites marcados pela menor e pela maior previsão individual.w i = 1 / Nwiwi=1/N
Se você tem um conhecimento a priori sobre a probabilidade de chuva, pode aplicar o teorema de Bayes para atualizar as previsões, considerando a probabilidade a priori de chuva de maneira semelhante à descrita aqui . Também existe uma abordagem simples que pode ser aplicada, ou seja, calcular a média ponderada de suas previsões (como descrito acima) em que a probabilidade anterior é tratada como ponto de dados adicional com algum peso pré-especificado como neste exemplo do IMDB ( veja também fonte , ou aqui e aqui para discussão; cf. Genest e Schervish, 1985), ie π w πpiπwπ
p^=(∑Ni=1piwi)+πwπ(∑Ni=1wi)+wπ(6)
Da sua pergunta, no entanto, não se segue que você tenha conhecimento a priori sobre o seu problema, portanto provavelmente usaria uniforme anterior, ou seja, assumiria a priori chance de chuva e isso realmente não muda muito no caso do exemplo que você forneceu .50%
Para lidar com zeros, existem várias abordagens diferentes possíveis. Primeiro, observe que chance de chuva não é um valor realmente confiável, pois diz que é impossível que chova. Problemas semelhantes costumam ocorrer no processamento de linguagem natural quando, em seus dados, você não observa alguns valores que possivelmente podem ocorrer (por exemplo, você conta frequências de letras e, em seus dados, algumas letras incomuns não ocorrem). Nesse caso, o estimador clássico de probabilidade, ou seja,0%
pi=ni∑ini
onde é um número de ocorrências de th valor (de categorias), dá-lhe se . Isso é chamado de problema de frequência zero . Para esses valores, você sabe que a probabilidade deles é diferente de zero (eles existem!); Portanto, essa estimativa está obviamente incorreta. Há também uma preocupação prática: multiplicar e dividir por zeros leva a zeros ou resultados indefinidos; portanto, zeros são problemáticos ao lidar com eles. i d p i = 0 n i = 0niidpi=0ni=0
A correção fácil e comumente aplicada é adicionar constante às suas contagens, para queβ
pi=ni+β(∑ini)+dβ
A escolha comum para é , ou seja, a aplicação uniforme uniforme com base na regra de sucessão de Laplace , para a estimativa de Krichevsky-Trofimov ou para o estimador de Schurmann-Grassberger (1996). Observe, no entanto, que o que você faz aqui é aplicar informações fora de dados (anteriores) em seu modelo, para obter um sabor Bayesiano subjetivo. Ao usar essa abordagem, você deve se lembrar das suposições feitas e levá-las em consideração. O fato de termos um forte conhecimento a priori de que não deve haver nenhuma probabilidade zero em nossos dados justifica diretamente a abordagem bayesiana aqui. No seu caso, você não tem frequências, mas probabilidades, então você adicionaria algumasβ11/21/dvalor muito pequeno para corrigir zeros. Observe, no entanto, que em alguns casos essa abordagem pode ter consequências ruins (por exemplo, ao lidar com logs ), portanto, deve ser usada com cautela.
Schurmann, T. e P. Grassberger. (1996). Estimativa de entropia de sequências de símbolos. Caos, 6, 41-427.
Ariely, D., Tung Au, W., Bender, RH, Budescu, DV, Dietz, CB, Gu, H., Wallsten, TS e Zauberman, G. (2000). Os efeitos da média da estimativa da probabilidade subjetiva entre e dentro dos juízes. Journal of Experimental Psychology: Applied, 6 (2), 130.
Baron, J., Mellers, BA, Tetlock, PE, Stone, E. e Ungar, LH (2014). Duas razões para tornar as previsões de probabilidade agregadas mais extremas. Decision Analysis, 11 (2), 133-145.
Erev, I., Wallsten, TS e Budescu, DV (1994). Excesso de confiança e subconfiança simultâneos: o papel do erro nos processos de julgamento. Revisão psicológica, 101 (3), 519.
Karmarkar, EUA (1978). Utilidade ponderada subjetivamente: uma extensão descritiva do modelo de utilidade esperado. Comportamento organizacional e desempenho humano, 21 (1), 61-72.
Turner, BM, Steyvers, M., Merkle, CE, Budescu, DV e Wallsten, TS (2014). Agregação de previsão via recalibração. Aprendizado de máquina, 95 (3), 261-289.
Genest, C. e Zidek, JV (1986). Combinando distribuições de probabilidade: uma crítica e uma bibliografia anotada. Statistical Science, 1 , 114–135.
Satopää, VA, Barão, J., Foster, DP, Mellers, BA, Tetlock, PE e Ungar, LH (2014). Combinando várias previsões de probabilidade usando um modelo de logit simples. International Journal of Forecasting, 30 (2), 344-356.
Genest, C. e Schervish, MJ (1985). Modelagem de julgamentos de especialistas para atualização bayesiana. The Annals of Statistics , 1198-1212.
Dietrich, F., e List, C. (2014). Conjunto de Opiniões Probabilísticas. (Não publicado)