Recentemente, eu estava lendo um artigo que incorporava a aleatoriedade em seus intervalos de confiança e credibilidade, e me perguntava se isso é padrão (e, se sim, por que é uma coisa razoável a se fazer). Para definir a notação, assuma que nossos dados são e estamos interessados em criar intervalos para um parâmetro . Estou acostumado a intervalos de confiança / credibilidade sendo construídos através da construção de uma função:θ ∈ Θ
e deixando nosso intervalo .
Isso é aleatório no sentido de que depende dos dados, mas, dependendo dos dados, é apenas um intervalo. Este artigo define
e também uma coleção de variáveis aleatórias uniformes iid em . Ele define o intervalo associado como I = \ {\ theta \ in \ Theta \,: \, f_ {x} (\ theta) \ geq U _ {\ theta} \} . Observe que isso depende muito da aleatoriedade auxiliar, além do que vier dos dados. [ 0 , 1 ] I = { θ ∈ Θ
Estou muito curioso para saber por que alguém faria isso. Eu acho que 'relaxar' a noção de um intervalo de funções como para funções como faz algum sentido; é algum tipo de intervalo de confiança ponderado. Não conheço nenhuma referência para isso (e gostaria de receber dicas), mas parece bastante natural. No entanto, não consigo pensar em nenhum motivo para adicionar aleatoriedade auxiliar.
Qualquer indicação para a literatura / razões para fazer isso seria apreciada!