Normalmente, você faria inferência condicional ao tamanho real da amostra , porque é auxiliar aos parâmetros de interesse; isto é, não contém informações sobre seus valores reais, afetando apenas a precisão com a qual você pode mensurá-los. Cox (1958), "Some Problems Connected with Statistical Inference", Ann. Matemática. Statist.n 29 , 2 é geralmente citado como primeiro explicando o que às vezes é conhecido como Princípio da Condicionalidade, embora estivesse implícito em trabalhos anteriores, remetendo à ideia de Fisher de "subconjuntos relevantes".
Se o financiamento do seu pesquisador foi cortado porque os resultados até agora foram decepcionantes, é claro que não é auxiliar. Talvez a ilustração mais simples do problema seja a estimativa de uma probabilidade de Bernoulli a partir de um esquema de amostragem binomial (número fixo de ensaios) ou negativo (binômio número fixo de sucessos). A estatística suficiente é a mesma em ambos, mas sua distribuição é diferente. Como você analisaria um experimento em que não sabia qual foi seguido?nBerger & Wolpert (1988), The Likelihood Principle discutem as implicações desta e de outras regras de parada para inferência.
xn--√x¯≤ kμ = 0μ ≠ 0L ( 0 )L ( x¯)≤ e- k2/ 2, para que o pesquisador possa estabelecer um limite com antecedência com uma escolha apropriada de k. Somente uma análise freqüentista pode levar em consideração a distribuição da razão de verossimilhança nesse esquema de amostragem bastante injusto. Veja as respostas de Kerridge (1963), "Limites para a frequência de inferências enganosas de Bayes", Ann. Matemática. Estado. , 34 , Cornfield (1966), "Ensaios seqüenciais, análise seqüencial e o princípio da probabilidade", The American Statistician , 20 , 2 , e Kadane (1996), "Raciocínio para uma conclusão precipitada", JASA , 91 , 435
Apontar a dependência da inferência freqüentista das intenções de um pesquisador é uma escavação útil para as pessoas (se ainda houver alguma) que se empolgam com a "subjetividade" da inferência bayesiana. Pessoalmente, eu posso viver com isso; o desempenho de um procedimento durante uma longa série de repetições sempre será algo mais ou menos nocional, o que não diminui sua utilidade a ser considerada ("uma calibração da probabilidade" foi como Cox descreveu os valores de p ) Nas datas das referências, você deve ter notado que esses problemas não são muito novos; as tentativas de resolvê-los por meio de argumentação a priori desapareceram amplamente (exceto na Internet, sempre atrasadas, exceto em questões triviais) &
PS: Thinking to add a counter-balance to Berger & Wolpert I happened upon Cox & Mayo (2010), "Objectivity and Conditionality in Frequentist Inference" in Error and Inference. There's quite likely an element of wishful thinking in my assertion that the debate has died down, but it's striking how little new there is to be said on the matter after half a century or so. (All the same, this is a concise & eloquent defence of frequentist ideas.)