A definição padrão de (digamos) um intervalo de confiança de 95% (IC) simplesmente requer que a probabilidade de que ele contenha o parâmetro true seja de 95%. Obviamente, isso não é único. A linguagem que eu vi sugere que, entre os muitos IC válidos, geralmente faz sentido encontrar algo como o mais curto, simétrico ou conhecido precisamente mesmo quando alguns parâmetros de distribuição são desconhecidos etc. Em outras palavras, parece não haver hierarquia óbvia do que o IC é "melhor" do que outros.
No entanto, pensei que uma definição equivalente de IC é que ela consiste em todos os valores, de modo que a hipótese nula de que o parâmetro true seja igual a esse valor não seria rejeitada no nível de significância apropriado depois de ver a amostra realizada. Isso sugere que, desde que escolhamos um teste que gostamos, podemos construir automaticamente o IC. E há uma preferência padrão entre testes com base no conceito de UMP (ou UMP entre testes imparciais).
Existe algum benefício em definir o IC como o correspondente ao teste UMP ou algo parecido?