Estou tendo um grande problema com um problema conceitual que eu criei.
Digamos que uma empresa tenha uma distribuição altamente distorcida. Algo semelhante a um exponencial ou lognormal apenas mais extremo. Agora, finja que a distribuição está tão distorcida que a média da distribuição é superior ao percentil 99% da distribuição. (Aka 1-2 valores extremos mais altos fizeram com que a média fosse extremamente alta em comparação com o restante da distribuição).
Por definição, se essa distribuição fosse usada para prever um valor futuro (também conhecido como amostra aleatória da distribuição), seria verdade que a média não estaria no intervalo de previsão de 95%?
No meu cérebro, um intervalo de predição de 95% é um intervalo entre o qual 95% de todos os valores futuros se situam. Para qualquer distribuição, isso deve ser exatamente igual ao percentil 0,025 no limite inferior e o percentil 0,975 no limite superior ... Se a média for maior que o percentil 0,975, a média não estaria dentro dos 95% intervalo de previsão '.
Estou pensando nisso incorretamente? Parece estranho relatar uma previsão como
- Valor médio previsto: 6.000,0000
- Intervalo de previsão de 95%: [400,5000].