Solução para o problema do tanque alemão


10

Existe uma prova matemática formal que a solução para o tanque problema alemão é uma função única a parâmetros k (número de amostras observadas) e m (valor máximo entre as amostras observadas)? Em outras palavras, é possível provar que a solução é independente dos outros valores da amostra além do valor máximo?


3
O que você está perguntando é como mostrar que o máximo da amostra é suficiente para o parâmetro especificando o limite superior de uma distribuição uniforme discreta de 1 a . θθθ
Scortchi - Restabelece Monica

2
Teorema de fatoração de Fisher Neyman A função de verossimilhança, probabilidade das amostras observadas (resumidas pelo máximo ), dados os parâmetros (o número de tanques), pode ser completamente escrita em termos de e \ Pr (M = m | n , k) = \ begin {cases} 0 & \ text {if} m> n \\ \ frac {\ binom {m - 1} {k - 1}} {\ binom nk} & \ text {if} m \ leq n, \ end {cases} Isso seria uma resposta? m n k mkmnkm
Pr(M=m|n,k)={0if m>n(m1k1)(nk)if mn,
Sextus Empiricus

@ Scortchi está correto, obrigado por reformulá-lo de uma maneira mais clara para mim.
Bogdan Alexandru

@MartijnWeterings no; essencialmente, estou pedindo (citando o comentário de Scortchi acima) uma prova de que o máximo da amostra é suficiente para a solução sem realmente computar a solução.
Bogdan Alexandru

Então você não está procurando o teorema da fatoração de Fisher Neyman como prova?
Sextus Empiricus

Respostas:


15

Probabilidade

Problemas comuns na teoria da probabilidade referem-se à probabilidade das observações dado um determinado modelo e dados aos parâmetros (vamos chamá-los ) envolvidos. Por exemplo, as probabilidades de situações específicas em jogos de cartas ou dados são muitas vezes muito diretas.x1,x2,...,xnθ

No entanto, em muitas situações práticas, estamos lidando com uma situação inversa ( estatística inferencial ). Ou seja: a observação é fornecida e agora o modelo é desconhecido , ou pelo menos não conhecemos certos parâmetros .x1,x2,...,xk θθ

Nesse tipo de problema, geralmente nos referimos a um termo chamado probabilidade dos parâmetros , que é uma taxa de crença em um parâmetro específico com as observações . Este termo é expresso como proporcional à probabilidade das observações assumindo que um parâmetro de modelo seria hipoteticamente verdadeiro. L(θ)θx1,x2,..xkx1,x2,..xkθ

L(θ,x1,x2,..xk)probability observations x1,x2,..xk given θ 

Para um dado valor de parâmetro mais provável é uma determinada observação é (relativa à probabilidade com outros valores de parâmetro), mais a observação suporta esse parâmetro específico (ou teoria / hipótese que assume esse parâmetro) . Uma probabilidade (relativa) alta reforçará nossas crenças sobre esse valor de parâmetro (há muito mais filosófico a dizer sobre isso).θx1,x2,..xn


Probabilidade no problema do tanque alemão

Agora, para o problema do tanque alemão, a função de probabilidade para um conjunto de amostras é:x1,x2,..xk

L(θ,x1,x2,..xk)=Pr(x1,x2,..xk,θ)={0if max(x1,x2,..xk)>θ(θk)1if max(x1,x2,..xk)θ,

Se você observa amostras {1, 2, 10} ou amostras {8, 9, 10} não deve importar quando as amostras são consideradas de uma distribuição uniforme com o parâmetro . Ambas as amostras são igualmente prováveis ​​com probabilidade e, usando a idéia de probabilidade, uma amostra não conta mais sobre o parâmetro que a outra amostra.θ(θ3)1θ

Os altos valores {8, 9, 10} podem fazer você pensar / acreditar que deve ser maior. Porém, é apenas o valor {10} que realmente fornece informações relevantes sobre a probabilidade de (o valor 10 indica que será dez ou mais alto, os outros valores 8 e 9 não contribuem com nada para essas informações )θθ θθθ


Teorema de fatoração de Fisher Neyman

Este teorema diz que uma certa estatística (ou seja, alguma função das observações, como média, mediana ou, no máximo, no problema do tanque alemão) é suficiente (contém todas as informações) quando você pode fatorar, na função de probabilidade, os termos que dependem das outras observações , de modo que esse fator não dependa dos parâmetros e (e a parte da função de probabilidade que relaciona os dados com os valores hipotéticos dos parâmetros depende apenas da estatística, mas não de todo o dado / observação).T(x1,x2,,xk)x1,x2,,xkθx1,x2,,xk

O caso do problema do tanque alemão é simples. Você pode ver acima que a expressão inteira para a Probabilidade acima já depende apenas da estatística e o restante dos valores não importa.max(x1,x2,..xk)x1,x2,..xk


Joguinho como exemplo

Digamos que jogamos repetidamente o seguinte jogo: é uma variável aleatória e é desenhada com probabilidade igual 100 ou 110. Em seguida, desenhamos uma amostra .θx1,x2,...,xk

Queremos escolher uma estratégia para adivinhar , com base nos que maximizem nossa probabilidade de ter o palpite correto de .θx1,x2,...,xkθ

A estratégia adequada será escolher 100, a menos que um dos números da amostra seja> 100.

Poderíamos ser tentados a escolher o valor do parâmetro 110 já que muitos dos tendem a ser todos os valores altos próximos de cem (mas nenhum exatamente acima de cem), mas isso seria errado. A probabilidade de tal observação será maior quando o valor verdadeiro do parâmetro for 100 do que quando for 110. Portanto, se adivinharmos, nessa situação, 100 como o valor do parâmetro, teremos menos probabilidade de cometer um erro (porque o A situação com esses valores altos próximos de cem, mas ainda abaixo dele, ocorre com mais frequência no caso em que o valor verdadeiro é 100 e não no caso em que o valor verdadeiro é 110).x1,x2,...,xk


Impressionante, exatamente o que eu precisava! Apenas um comentário em seu último parêntese: você está dizendo "esses valores altos perto de cem ocorrem com mais frequência ...", o que eu entendo por que é verdade, mas apenas para esclarecer: qualquer valor entre 1 e 100 tem mais probabilidade de ocorrer quando se o parâmetro for 100 (essencialmente a probabilidade para cada número em 1-100 é 1 / parâmetro).
Bogdan Alexandru

Além disso, agora seu comentário inicial ao meu post faz sentido - se eu soubesse aplicar esses conceitos, seu comentário teria sido exatamente a dica de que eu precisava para obter a prova. Obrigado novamente!
Bogdan Alexandru

@BogdanAlexandru você está certo; é verdade para qualquer valor entre 1 e 100. Essa é a ideia contra-intuitiva, tendemos a pensar que valores mais altos observados são de alguma forma mais prova de algum valor de parâmetro do que baixos valores observados, mas para qualquer número é igualmente provável e, portanto, não deve / deve contribuir com nada para nossas crenças sobre o parâmetro do modelo ( Exceto o valor máximo que observamos, mas mesmo no jogo que fiz com apenas uma escolha entre dois valores, é tal que mesmo o máximo não fornece mais informações quando é maior ou menor, exceto em torno dos cem limites.
Sextus Empiricus

Meu comentário inicial pode ter sido muito pesado, mas eu estava apenas cutucando para ver que tipo de resposta era necessária. Especialmente, acho o termo 'prova' um pouco forte e fiquei imaginando se você estava apenas procurando pelo teorema da fatoração (que seria uma pergunta respondida sim quando você não conhecia esse teorema) ou se estava procurando algo mais vago e filosóficos, como até desafiar conceitos de estatística / probabilidade e ir além de um teorema para procurar um tipo diferente de "prova".
Sextus Empiricus

Boa leitura de minhas intenções então! Obrigado novamente.
Bogdan Alexandru

0

Você não apresentou uma formulação precisa do "problema"; portanto, não está exatamente claro o que você está pedindo para ser provado. Do ponto de vista bayesiano, a probabilidade posterior depende de todos os dados. No entanto, cada observação de um número de série específico suportará mais esse número. Ou seja, dada qualquer observação , a razão de chances entre posterior e anterior será maior para a hipótese "o número real de tanques é " do que para "o número real de tanques é [número diferente de ]". Assim, se começarmos com um uniforme anterior, então terá o posterior mais alto depois de ver essa observação.nnnn

Considere um caso em que temos o ponto de dados e hipóteses . Obviamente, o posterior para é zero. E nossos posteriores para serão maiores que os anteriores. A razão para isso é que, no raciocínio bayesiano, a ausência de evidência é evidência de ausência. Sempre que temos uma oportunidade em que poderíamos ter feito uma observação que teria diminuído nossa probabilidade, mas não, a probabilidade aumenta. Como poderíamos ter visto , o que definiria nossos posteriores para como zero, o fato de não vermos significa que deveríamos aumentar nossos posteriores para13N=10,13,15N=10N=13,1516N=13,15N=13,15 . Mas observe que, quanto menor o número, mais números poderíamos ter visto que teriam excluído esse número. Para , que teria rejeitado essa hipótese depois de ver . Mas para , precisaríamos de pelo menos para rejeitar a hipótese. Como a hipótese é mais falsificável que , o fato de não termos falsificado é mais uma evidência de que não falsificar é uma evidência de .N=1314,15,16,...N=1516N=13N=15N=13N=13N=15N=15

Portanto, toda vez que vemos um ponto de dados, ele define o posterior de tudo abaixo dele como zero e aumenta o posterior de todo o resto, com números menores recebendo o maior impulso. Assim, o número que obtiver o maior aumento geral será o menor número cujo posterior não foi definido como zero, ou seja, o valor máximo das observações.

Números inferiores ao máximo afetam quanto maior um impulso obtém, mas não afeta a tendência geral do aumento máximo. Considere o exemplo acima, onde já vimos . Se o próximo número que vemos for , que efeito isso terá? Ajuda mais de , mas ambos os números já foram rejeitados, o que não é relevante. Ajuda mais de , mas já foram ajudadas a mais de , de modo que não afeta qual número foi mais ajudado.1355613151315


Este exemplo depende muito da situação e as declarações não são gerais. Por exemplo, se o anterior é 50% para 13 e 50% para 15, a observação de 13 não é tal que "nossos posteriores para N = 13, 15 serão maiores que os anteriores" Observações podem diminuir o posterior em relação ao anterior .
Sextus Empiricus

Além disso, a observação de mais números adicionais pode alterar a inferência. No caso "se o próximo número que vemos for 5 ..." , o posterior ainda mudará, mesmo quando os números já foram 'ajudados', números adicionais podem aumentar essa "ajuda" (por exemplo, quando você mostra todos os números 1,2, ... 12, 13 então isso aumentará a posterior para 13 a mais do que quando você provar apenas 13) #
Sextus
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.