O Paradoxo da Bela Adormecida


133

A situação

Alguns pesquisadores gostariam de colocá-lo para dormir. Dependendo do sorteio secreto de uma moeda justa, eles o despertarão brevemente uma vez (cara) ou duas vezes (coroa). Após cada acordar, eles o colocam de volta no sono com uma droga que faz você esquecer esse despertar. Quando você é despertado, em que grau você deve acreditar que o resultado do sorteio foi cara?

(OK, talvez você não queira ser o assunto desse experimento! Suponha que a Bela Adormecida (SB) concorde com isso (com a aprovação total do Conselho de Revisão Institucional do Magic Kingdom, é claro). Ela está prestes a ir para durar cem anos; então, o que são mais um ou dois dias?)

Ilustração de Maxfield Parrish

[Detalhe de uma ilustração de Maxfield Parrish .]

Você é um Halfer ou Thirder?

A posição Halfer. Simples! A moeda é justa - e SB sabe disso -, então ela deve acreditar que há uma chance e meia de cara.

A posição Thirder. Se esse experimento for repetido várias vezes, a moeda será cara apenas um terço do tempo em que o SB for despertado. Sua probabilidade de cabeças será de um terço.

Terceiros têm um problema

A maioria, mas não todas, as pessoas que escreveram sobre isso são terceiras. Mas:

  • No domingo à noite, pouco antes de SB adormecer, ela deve acreditar que a chance de cabeças é metade: é isso que significa ser uma moeda justa.

  • Sempre que SB acorda, ela aprendeu absolutamente nada que não sabia no domingo à noite. Que argumento racional ela pode dar para afirmar que sua crença na cabeça é agora um terço e não metade?

Algumas tentativas de explicação

  • SB necessariamente perderia dinheiro se ela apostasse em cabeças com outras probabilidades que não sejam 1/3. (Vineberg, entre outros )

  • Metade é realmente correta: basta usar a interpretação everettiana de “muitos mundos” da Mecânica Quântica! (Lewis).

  • SB atualiza sua crença com base na autopercepção de sua "localização temporal" no mundo. (Elga, ia )

  • SB está confusa: “[Parece] mais plausível dizer que seu estado epistêmico ao acordar não deve incluir um grau definido de crença nas cabeças. ... A verdadeira questão é como se lida com o mau funcionamento cognitivo conhecido, inevitável. ”[Arntzenius]


A questão

Considerando o que já foi escrito sobre esse assunto (veja as referências e também um post anterior ), como esse paradoxo pode ser resolvido de maneira estatisticamente rigorosa? Isso é possível?


Referências

Arntzenius, Frank (2002). Reflexões sobre a análise da Bela Adormecida 62,1 pp 53-62.

Bradley, DJ (2010). Confirmação em um mundo ramificado: a interpretação da Everett e a bela adormecida . Brit. J. Phil. Sci. 0 (2010), 1–21.

Elga, Adam (2000). Crença de auto-localização e o problema da Bela Adormecida. Análise 60 pp 143-7.

Franceschi, Paul (2005). A Bela Adormecida e o Problema da Redução Mundial . Pré-impressão.

Groisman, Berry (2007). O fim do pesadelo da Bela Adormecida . Pré-impressão.

Lewis, D. (2001). A Bela Adormecida: responda a Elga . Análise 61,3 pp 171-6.

Papineau, David e Victor Dura-Vila (2008). Um Thirder e um Everettian: uma resposta à 'Quantum Sleeping Beauty' de Lewis .

Pust, Joel (2008). Horgan sobre a Bela Adormecida . Synthese 160 pp 97-101.

Vineberg, Susan (sem data, talvez 2003). Conto preventivo da beleza .


2
Fui movido para postar isso como uma pergunta separada, com base nos comentários em stats.stackexchange.com/questions/23779 .
whuber

3
Seria bom se você pudesse descrever o experimento um pouco mais claro. Sem ler o post original, é realmente difícil entender do que se trata o paradoxo.
sebhofer

1
Meu comentário não era para ser rude. Percebi mais tarde que poderia ter sido um pouco duro. Espero que você não tenha entendido errado.
sebhofer

4
Você pode estar interessado na (agora grande) literatura sobre filosofia sobre esse paradoxo. Aqui está uma bibliografia bastante completa (com links): philpapers.org/browse/sleeping-beauty

2
Depende se a penalidade por adivinhar o erro é idempotente ou não. Nesse caso ("se você errar, mataremos seu pai"), deve-se assumir uma estratégia pela metade. Caso contrário ("se você errar, tomaremos $ 100"), você deve assumir uma estratégia de sedentarismo. Se não houver outra penalidade específica além de "ha ha, você está errado", você deve decidir por si mesmo se estar errado duas vezes é pior ou não.
Lobsterism

Respostas:


57

Estratégia

Eu gostaria de aplicar a teoria da decisão racional à análise, porque essa é uma maneira bem estabelecida de obter rigor na solução de um problema de decisão estatística. Ao tentar fazer isso, surge uma dificuldade especial: a alteração da consciência de SB.

  • A teoria da decisão racional não tem mecanismo para lidar com estados mentais alterados.

  • Ao pedir a SB sua credibilidade no coin flip, estamos tratando-a simultaneamente de uma maneira um tanto autorreferencial, tanto como sujeito (do experimento SB) quanto como experimentador (referente ao coin flip).

Vamos alterar o experimento de uma maneira não essencial: em vez de administrar o remédio para apagar a memória, prepare um estábulo de clones da Bela Adormecida antes do início do experimento. (Essa é a ideia-chave, porque nos ajuda a resistir a questões filosóficas perturbadoras - mas, em última análise, irrelevantes e enganosas).

  • Os clones são como ela em todos os aspectos, incluindo memória e pensamento.

  • SB está plenamente consciente de que isso acontecerá.

Camiseta do clone: ​​"Este é o meu clone. Na verdade, estou em outro lugar, tendo um tempo muito melhor."

Nós podemos clonar, em princípio. ET Jaynes substitui a pergunta "como podemos construir um modelo matemático do senso comum humano" - algo que precisamos para refletir sobre o problema da Bela Adormecida - por "como poderíamos construir uma máquina que executasse um raciocínio plausível útil, seguindo princípios claramente definidos que expressam um senso comum idealizado? " Assim, se você preferir, substitua o SB pelo robô pensante de Jaynes e clone-o.

(Houve e ainda existem controvérsias sobre as máquinas "pensantes".

"Eles nunca fabricarão uma máquina para substituir a mente humana - fazem muitas coisas que nenhuma máquina jamais poderia fazer".

Você insiste que há algo que uma máquina não pode fazer. Se você me disser exatamente o que uma máquina não pode fazer, eu sempre posso fabricar uma máquina que faça exatamente isso! ”

--J. von Neumann, 1948. Citado por ET Jaynes em Probability Theory: The Logic of Science , p. 4.)

Desenho de uma máquina para limpar a boca de um homem quando ele come uma colher de sopa

--Rube Goldberg

O experimento da Bela Adormecida reafirmou

Prepare cópias idênticas do SB (incluindo o próprio SB) no domingo à noite. Todos eles dormem ao mesmo tempo, potencialmente por 100 anos. Sempre que precisar despertar o SB durante o experimento, selecione aleatoriamente um clone que ainda não foi despertado. Qualquer despertar ocorrerá na segunda-feira e, se necessário, na terça-feira.n2

Afirmo que esta versão do experimento cria exatamente o mesmo conjunto de resultados possíveis, até os estados mentais e a consciência de SB, com exatamente as mesmas probabilidades. Este é potencialmente um ponto-chave em que os filósofos podem optar por atacar minha solução. Afirmo que é o último ponto em que eles podem atacá-lo, porque a análise restante é rotineira e rigorosa.

Agora aplicamos o maquinário estatístico usual. Vamos começar com o espaço da amostra (dos possíveis resultados experimentais). Permita que signifique "desperte segunda-feira" e T signifique "desperte terça-feira". Da mesma forma, vamos h significa "cabeças" e "T" caudas médios. Subscreva os clones com números inteiros 1 , 2 , , n . Em seguida, os possíveis resultados experimentais podem ser escritos (no que espero ser uma notação transparente e evidente) como o conjuntoMTh1,2,,n

{hM1,hM2,,hMn,(tM1,tT2),(tM1,tT3),,(tM1,tTn),(tM2,tT2),(tM2,tT3),,(tM2,tTn),,(tMn1,tT2),(tMn1,tT3),,(tMn1,tTn)}.

Probabilidades de segunda-feira

Como um dos clones SB, você descobrir a sua chance de ser despertado na segunda-feira durante um experimento de heads-up é ( chance de cabeças) vezes ( 1 / n chance, Estou escolhido para ser o clone que é despertado). Em termos mais técnicos:1/21/n

  • O conjunto de resultados das cabeças é . Existem n deles.h={hMj,j=1,2,,n}n

  • O evento em que você é despertado com cabeças é .h(i)={hMi}

  • A possibilidade de qualquer clone particular, SB ser acordado com a moeda mostrando cabeças é igual Pr [ h ( i ) ] = Pr [ h ] × Pr [ h ( i ) | h ] = 1i

    Pr[h(i)]=Pr[h]×Pr[h(i)|h]=12×1n=12n.

Probabilidades de terça-feira

  • O conjunto de resultados de caudas é . Existem n ( n - 1 ) deles. Todos são igualmente prováveis, por design.t={(tMj,tTk):jk}n(n1)

  • Você, clone , é despertado em ( n - 1 ) + ( n - 1 ) = 2 ( n - 1 ) desses casos; ou seja, as maneiras n - 1 de despertar na segunda-feira (existem n - 1 clones restantes para serem despertados terça-feira) mais as maneiras n - 1 de despertar na terça-feira (existem n - 1 possíveis clones de segunda-feira). Chame este evento de t ( i ) .i(n1)+(n1)=2(n1)n1n1n1n1t(i)

  • Sua chance de ser despertado durante um experimento de captura é igual a

    Pr[t(i)]=Pr[t]×P[t(i)|t]=12×2(n1n(n1)=1n.

Colagem de clones da Bela Adormecida

Teorema de Bayes

Agora que chegamos até aqui, o Teorema de Bayes - uma tautologia matemática além da disputa - termina o trabalho. A chance de qualquer clone de cabeças é, portanto,

Pr[h|t(i)h(i)]=Pr[h]Pr[h(i)|h]Pr[h]Pr[h(i)|h]+Pr[t]Pr[t(i)|t]=1/(2n)1/n+1/(2n)=13.

Como SB é indistinguível de seus clones - mesmo para si mesma -, essa é a resposta que ela deve dar quando for solicitada seu grau de crença na cabeça.

Interpretações

A pergunta "qual é a probabilidade de cabeças" tem duas interpretações razoáveis para esta experiência: ele pode pedir a chance de uma moeda honesta terras cabeças, que é (a resposta Halfer), ou pode pedir pela chance da moeda cair, condicionada ao fato de que você era o clone despertado. Este é Pr [ h | t ( i ) h ( i ) ] = 1 / 3 (a resposta Thirder).Pr[h]=1/2Pr[h|t(i)h(i)]=1/3

Na situação em que SB (ou melhor, qualquer um de um conjunto de máquinas pensantes de Jaynes identicamente preparadas) se encontra, essa análise - que muitos outros realizaram (mas acho menos convincente, porque eles não removeram tão claramente as distrações filosóficas nas descrições experimentais) - suporta a resposta Thirder.

A resposta de Halfer é correta, mas desinteressante, porque não é relevante para a situação em que SB se encontra. Isso resolve o paradoxo.

Esta solução é desenvolvida no contexto de uma única configuração experimental bem definida. Esclarecer o experimento esclarece a questão. Uma pergunta clara leva a uma resposta clara.

Comentários

Eu acho que, seguindo Elga (2000), você poderia legitimamente caracterizar nossa resposta condicional como "contando sua própria localização temporal como relevante para a verdade de h", mas essa caracterização não adiciona nenhuma percepção ao problema: ela apenas prejudica os fatos matemáticos em evidência. Para mim, parece ser apenas uma maneira obscura de afirmar que a interpretação dos "clones" da questão da probabilidade é a correta.

Essa análise sugere que a questão filosófica subjacente é a da identidade : o que acontece com os clones que não são despertados? Que relações cognitivas e noéticas existem entre os clones? - mas essa discussão não é uma questão de análise estatística; pertence a um fórum diferente .


8
Esta resposta resume uma palestra que preparei em dezembro de 2008 e publiquei na Web naquele momento no formato PowerPoint. Sua conclusão parece ser substancialmente semelhante à de Groisman, embora a justificativa possa ser diferente: "Se queremos dizer 'Este despertar é um despertar da cabeça sob a configuração do despertar' ', então sua resposta deve ser 1/3, mas se queremos dizer' A moeda desembarcou em Cabeças sob configuração de lançamento de moeda ', sua resposta deve ser 1/2. " Veja philsci-archive.pitt.edu/3382/1/SB_PhilSci.pdf .
whuber

1
Eu ataco exatamente no seu ventre sem escala. Veja minha análise detalhada abaixo.
Dax Fohl # 01/09

1
Você tornou muito mais complexo do que precisa ser, verifique minha resposta.
Kelvin

2
Eu acredito que a situação dos clones é diferente da situação do SB. Os clones não sabem ao certo se serão ou não acordados. Portanto, se forem acordados, isso influenciará a probabilidade posterior de cara e coroa. Para SB a situação é diferente. Aqui, a probabilidade de ser acordado é 100% certa, independentemente de o resultado ser cara ou coroa, portanto, não pode afetar as crenças anteriores sobre cara e coroa. Pr [ h | t ( s b ) h ( s b ) ] = Pr [ h ]
Pr[t(sb)h(sb)|h]=Pr[t(sb)h(sb)]
Pr[h|t(sb)h(sb)]=Pr[h]
Martijn Weterings

o fato de você sentir a necessidade de reformular a pergunta em um problema diferente é um bom sinal de que sua resposta não está correta
probabilityislogic

12

Obrigado por este post brilhante (+1) e solução (+1). Esse paradoxo já me dá dor de cabeça.

Apenas pensei na seguinte situação que não requer fadas, milagres nem poções mágicas. Jogue uma moeda justa na segunda-feira ao meio-dia. No 'Tails', envie uma mensagem para Alice e Bob (de uma maneira que eles não saibam que o outro recebeu uma mensagem sua e que não podem se comunicar). Após a 'chefes', envie um e-mail a um deles de forma aleatória (com probabilidade ).1/2

Quando Alice recebe uma correspondência, qual é a probabilidade de que a moeda tenha caído em 'Cabeças'? A probabilidade de que ela recebe uma carta é , ea probabilidade de que a moeda pousou em 'chefes' é 1 / 3 .1/2×1/2+1/2=3/41/3

Aqui não há paradoxo, porque Alice não recebe uma carta com probabilidade , caso em que ela sabe a moeda pousou em 'chefes'. O fato de não pedirmos a opinião dela nesse caso torna essa probabilidade igual a 0 .1/4

Então qual é a diferença? Por que Alice obteria informações recebendo um e-mail e SB não aprenderia nada sendo despertado?

Passando para uma situação mais milagrosa, colocamos 2 SB diferentes para dormir. Se a moeda cair em 'Caudas', acordaremos ambos, se cair em 'Cabeças', acordaremos uma delas aleatoriamente. Aqui, novamente, cada um dos SB deveria dizer que a probabilidade do desembarque moeda em 'chefes' é e novamente não há paradoxo, porque há um 1 / 4 chance de que isso SB não iria ser despertado.1/31/4

Mas essa situação está muito próxima do paradoxo original, porque apagar a memória (ou clonagem) é equivalente a ter dois SB diferentes. Então, eu estou com @Douglas Zare aqui (+1). SB aprendeu algo sendo despertado. O fato de ela não poder expressar sua opinião na terça-feira, quando a moeda está em alta, porque ela está dormindo, não apaga as informações que ela tem ao acordar.

Na minha opinião, o paradoxo reside em " ela não aprendeu absolutamente nada que não conhecia na noite de domingo ", que é afirmada sem justificativa. Temos essa impressão porque as situações em que ela é despertada são idênticas, mas é como Alice recebendo um e-mail: é o fato de lhe ser perguntada sua opinião que fornece suas informações.

EDIÇÃO PRINCIPAL : Depois de pensar profundamente, mudo de opinião: a Bela Adormecida não aprendeu nada e o exemplo que dou acima não é um bom análogo da situação dela.

Mas aqui está um problema equivalente que não é paradoxal. Eu poderia jogar o seguinte jogo com Alice e Bob: Eu jogo uma moeda secretamente e aposte-as independentemente de 1 $, que elas não conseguem adivinhar. Mas se a moeda cair em 'Tails', a aposta de Alice de Bob será cancelada (o dinheiro não muda de mão). Dado que eles conhecem as regras, o que eles devem apostar?

'Cabeças' obviamente. Se a moeda cair em 'Cabeças', elas ganham 1 $ , caso contrário, elas perdem 0,5 $ em média. Isso significa que eles acreditam que a moeda tem 2/3 de chance de chegar a 'Heads'? Claro que não. Simplesmente o protocolo é tal que eles não ganham a mesma quantidade de dinheiro para cada resposta.

Eu acredito que a Bela Adormecida está na mesma situação que Alice ou Bob. Os eventos não dão a ela informações sobre o sorteio , mas, se for solicitada a aposta, suas chances não serão de 1: 1 por causa das assimetrias no ganho. Eu acredito que é isso que @whuber quer dizer com

A resposta de Halfer é correta, mas desinteressante, porque não é relevante para a situação em que SB se encontra. Isso resolve o paradoxo.


2
+1. Conforme explicado no meu comentário à resposta de Zare, estou lutando para entender a distinção que você está fazendo entre saber com antecedência que você será despertado e saber que foi despertado. O que é aprendido especificamente ao despertar, quando você tinha 100% de certeza de que o despertar ocorreria ?
whuber

@whuber seu comentário me levou a pensar sobre isso novamente. Veja a resposta atualizada.
gui11aume

1
@ whuber - se você tem certeza de que está avançando 10 pés / segundo, quando souber que agora é um segundo depois, você sabe que avançou 10 pés, mesmo tendo 100% de certeza de que isso aconteceria. A Bela Adormecida sabia de antemão que, se no futuro ela acordasse se lembrando de nada além do início do experimento, naquele momento as chances de cabeça seriam 1/3. Ela não aprendeu nada sobre a probabilidade de o despertar ocorrer, ou sobre a probabilidade de ocorrerem cabeças, mas aprendeu que ocorreu um despertar.
psr

1
Eu tive uma idéia semelhante - o jogo abstrato para sb é adivinhar cara ou coroa. se o resultado for cara, você joga uma vez. mas se o resultado for coroa, você deve jogar duas vezes e fazer o mesmo palpite nas duas vezes
probabilityislogic

8

"Sempre que SB acorda, ela aprendeu absolutamente nada que não sabia no domingo à noite". Isso está errado, tão errado quanto dizer "Ou eu ganho na loteria ou não, então a probabilidade é de ". Ela aprendeu que acordou. Isto é informação. Agora, ela deveria acreditar que cada possível despertar é igualmente provável, e não cada moeda jogada.50%

Se você é um médico e um paciente entra em seu consultório, você aprendeu que ele entrou em um consultório, o que deve alterar sua avaliação em relação ao anterior. Se todo mundo vai ao médico, mas a metade doente da população passa vezes mais que a metade saudável, quando o paciente entra, você sabe que provavelmente está doente.100

Aqui está outra ligeira variação. Suponha que, seja qual for o resultado do sorteio, a Bela Adormecida será acordada duas vezes. No entanto, se for coroa, ela será acordada bem duas vezes. Se forem cabeças, ela será acordada bem uma vez e terá um balde de gelo despejado nela uma vez. Se ela acorda em uma pilha de gelo, ela tem informações de que a moeda veio à tona. Se ela acorda bem, ela tem informações de que a moeda provavelmente não apareceu. Ela não pode fazer um teste não-regenerado, cujo resultado positivo (gelo) indica que suas cabeças são mais prováveis ​​sem o resultado negativo (bom), indicando que as cabeças são menos prováveis.


1
Intrigante (+1). Mas não consigo deixar de pensar que uma Halfer pode voltar com algo como "mas SB sabia de antemão que ela seria despertada; portanto, a experiência do despertar não fornece novas informações". Parece semelhante ao exemplo mais prosaico de um lançamento de moeda comum. Depois que a moeda é lançada - mas antes de você aprender o resultado - você sabe que a moeda foi lançada. Mas é absurdo ou inútil afirmar que a probabilidade de cabeças é 1 ou 0. Sua credibilidade para cabeças permanece exatamente a mesma que era antes do lançamento. Alguns tipos de informações não alteram as probabilidades.
whuber

Na variação de gelo / agradavelmente, a Halfer diria que a Bela Adormecida ganha alguma informação ao descobrir que está bem acordada? O quebra-cabeça original é equivalente a este caso, portanto, a atualização das probabilidades deve ser a mesma.
Douglas Zare

A variação de gelo / agradável é realmente interessante - vale a pena considerar cuidadosamente. Como até o espaço de amostra é diferente, como você demonstra de forma convincente que o problema original é equivalente a ele? Sua declaração final faz sentido, mas qual é a prova disso?
whuber

Eu acho que você precisa representar isso como uma espécie de espaço de probabilidade filtrado, e então deve haver um isomorfismo entre os dois. Ainda não fiz isso.
Douglas Zare

@DouglasZare Inicialmente concordei com você, mas mudei de opinião (veja minha resposta atualizada).
gui11aume

8

O paradoxo está na mudança de perspectiva entre um único experimento e seu ponto limite. Se o número de experimentos for levado em consideração, você poderá entender isso ainda mais precisamente do que o "ou / ou" de metades e terceiros:

Experiência única: os Halvers estão certos

Se houver um único experimento, há três resultados e você apenas precisará calcular as probabilidades da perspectiva do desperto:

  1. As cabeças foram lançadas: 50%
  2. Caudas foram jogadas e este é o meu primeiro despertar: 25%
  3. Caudas foram jogadas e este é o meu segundo despertar: 25%

Portanto, em um único experimento, em qualquer evento de ativação, você deve assumir 50/50 de que está em um estado em que as cabeças foram atiradas

Duas experiências: 42% estão certos

Agora, tente duas experiências:

  1. As cabeças foram lançadas duas vezes: 25% (para os dois despertares combinados)
  2. O Tails foi jogado duas vezes: 25% (para todos os quatro despertares combinados)
  3. Heads então Tails e este é o meu primeiro despertar: 25% / 3
  4. Heads então Tails e este é o meu segundo ou terceiro despertar: 25% * 2/3
  5. Tails então Heads e este é meu 1º ou 2º despertar: 25% * 2/3
  6. Tails então Heads e este é o meu terceiro despertar: 25% / 3.

Então, aqui, {1, 3, 6} são os seus estados de Chefes, com uma probabilidade combinada de (25 + 25/3 + 25/3)%, 41,66%, que é inferior a 50%. Se duas experiências forem realizadas, em qualquer evento de despertar, você deve assumir 41,66% de chance de estar em um estado em que as cabeças foram jogadas

Experimentos infinitos: os terceiros têm razão

Não vou fazer as contas aqui, mas se você observar as opções de dois experimentos, poderá ver o número 1 e o número 2 em direção à metade, e o restante em direção a terços. À medida que o número de experimentos aumenta, as opções direcionadas para as metades (todas as cabeças / todas as caudas) diminuirão em probabilidade até zero, deixando as opções de "terços" para assumir. Se experiências infinitas forem realizadas, em qualquer evento de ativação, você deve assumir 1/3 de chance de estar em um estado em que as cabeças foram atiradas

Prevenção de retortas:

Mas jogando?

Sim, na única experiência, você ainda deve "apostar" pelos terços. Isso não é uma inconsistência; é apenas porque você pode fazer a mesma aposta várias vezes, com um determinado resultado, e sabe disso com antecedência. (Ou se não, a máfia faz).

Ok, que tal duas experiências únicas? Discrepância demais?

Não, porque o conhecimento sobre se você está no primeiro ou no segundo experimento aumenta o seu conhecimento. Vamos examinar as opções "duas experiências" e filtrá-las pelo conhecimento de que você está no primeiro experimento.

  1. Aplicável ao primeiro despertar (1/2)
  2. Aplicável aos dois primeiros despertares (2/4)
  3. Aplicável
  4. Nunca aplicável
  5. Aplicável ao primeiro despertar (1/2)
  6. Não aplicável

Certo, considere os chefes (1,3,6) multiplicando estes, probabilidades por aplicabilidade: 25/2 + 25/3 + 0 = 125/6.

Agora pegue os do Tails (2,4,5) e faça o mesmo: 25 * 4/2 + 0 + 25 * (2/3) / 2 = 125/6.

Viola, são iguais. As informações adicionais sobre qual experimento você está de fato ajusta as chances do que você conhece.

Mas, os clones !!

Simplificando, ao contrário do postulado de resposta do OP, que a clonagem cria uma experiência equivalente: clonagem além de selecção aleatória faz mudar o conhecimento do participante, da mesma forma "múltiplas experiências" altera o experimento. Se houver dois clones, você poderá ver as probabilidades de cada clone corresponder às probabilidades de dois experimentos . Clones infinitos convergem para terceiros. Mas não é o mesmo experimento, e não é o mesmo conhecimento, como um único experimento com um único sujeito não aleatório.

Você diz "aleatório do infinito" e eu digo dependência do axioma da escolha

Não sei, minha teoria dos conjuntos não é tão boa assim. Mas, dado que N é menor que o infinito, é possível estabelecer uma sequência que converge de metade para um terço; o caso infinito igual a um terço será verdadeiro ou indecidível, na pior das hipóteses, independentemente dos axiomas que você invocar.


Sinto discordar do fato de que a probabilidade de cabeças terem sido despertadas é de 50%, agora existem novas informações.
Rwolst

1
@rwolst que novas informações? Você sabia que, em ambos os casos, seria acordado pelo menos uma vez. Quando você é despertado, obtém o conhecimento de que foi despertado pelo menos uma vez. Mas é o mesmo que você já sabia. O que há de novo?
Dax Fohl 04/04/19

6

Vamos variar o problema.

Se a moeda aparecer cara, o SB nunca será despertado.

Se o Tails, o SB é despertado uma vez.

Agora os campos são Halfers e Zeroers. E claramente os Zeroers estão corretos.

Ou: Chefes -> acordaram uma vez; Tails -> acordou um milhão de vezes. Claramente, dado que ela está acordada, é mais provável que seja uma coroa.

(PS Sobre o assunto de "novas informações" - as informações podem ter sido DESTRUÍDAS. Então, outra pergunta é: ela perdeu as informações que já teve?)


1
Muito boa e "matemática" maneira de pensar sobre o problema - usando casos limites
probabilityislogic

Eu estava pensando sobre isso um pouco mais - e se eu perguntar à SB quando ela acordar "que despertar é isso" no seu caso 1000 vs 1?
probabilityislogic

3

"Sempre que SB acorda, ela aprendeu absolutamente nada que não sabia no domingo à noite".

Isso não está correto, que é o erro no argumento do halfer. Uma coisa que dificulta a argumentação é que o argumento do halfer baseado nesta afirmação raramente é expresso com mais rigor do que o que citei.

Existem três problemas. Primeiro, o argumento não define o que "nova informação" significa. Parece significar "Um evento que originalmente tinha uma probabilidade diferente de zero não pode ter ocorrido com base nas evidências". Segundo, nunca enumera o que é conhecido no domingo para ver se ele se encaixa nessa definição; e pode, se você olhar corretamente. Por fim, não existe um teorema que diga "se você não possui novas informações desse tipo, não pode atualizar". Se você o possui, o Teorema de Bayes produzirá uma atualização. Mas é uma falácia concluir, se você não possui essas novas informações, que não pode atualizar. Ser uma falácia não significa que não é verdade, significa que você não pode chegar a essa conclusão com base apenas nessas evidências.

No domingo à noite, digamos que SB produz seu próprio dado imaginário de seis lados. Como é imaginário, ela não pode olhar para o resultado. Mas o objetivo é ver se ele corresponde ao dia em que ela está acordada: um número par significa que ele corresponde na segunda-feira e um número ímpar significa terça-feira. Mas não pode corresponder a ambos, o que efetivamente distingue os dois dias.

O SB agora pode (ou seja, no domingo) calcular a probabilidade para as oito combinações possíveis de {cara / coroa, segunda / terça-feira, partida / sem partida}. Cada um será 1/8. Mas quando ela está acordada, ela sabe que {Heads, Tuesday, Match} e {Heads, Tuesday, No Match} não aconteceram. Isso constitui "nova informação" da forma que o argumento dos halfers diz que não existe e permite que a SB atualize a probabilidade de que a moeda do pesquisador tenha caído sobre as cabeças. É 1/3 se a moeda imaginária corresponde ou não ao dia real. Como é o mesmo de qualquer maneira, é 1/3 se ela sabe ou não se há uma correspondência; e, de fato, se ela rola ou imagina rolando, o dado.

Esse dado extra parece ser muito necessário para obter um resultado. Na verdade, não é necessário, mas você precisa de uma definição diferente de "novas informações" para entender o porquê. A atualização pode ocorrer sempre que os eventos significativos (ou seja, independentes e com probabilidade zero) no espaço amostral anterior diferem dos eventos significativos no espaço amostral posterior. Dessa forma, o denominador da razão no Teorema de Bayes não é 1. Enquanto isso geralmente ocorre quando a evidência faz com que alguns dos eventos tenham probabilidade zero, também pode ocorrer quando a evidência muda se os eventos são independentes. Esta é uma interpretação muito pouco ortodoxa, mas funciona porque a Beauty recebe mais de uma oportunidade para observar um resultado. E o objetivo do meu dado imaginário, que distinguia os dias, era transformar o sistema em um em que a probabilidade total fosse 1.

No domingo, o SB sabe que P (Desperta, segunda-feira, cabeças) = ​​P (Desperta, segunda-feira, coroa) = P (Desperta, terça-feira, coroa) = 1/2. Eles somam mais de 1/2 porque os eventos não são independentes com base nas informações que o SB tem no domingo. Mas eles são independentes quando ela está acordada. A resposta, de acordo com o Teorema de Bayes, é (1/2) / (1/2 + 1/2 + 1/2) = 1/3. Não há nada errado com um denominador maior que 1; mas o argumento da moeda imaginária foi projetado para realizar as mesmas coisas sem esse denominador.


3
Bem-vindo ao CV, @JeffJo. Esse é um argumento interessante, mas o tom parece um tanto irritante. Você deve ser cauteloso quanto a isso, para que as pessoas não a interpretem mal como grosseria.
gung

3
Desculpe pelo tom - não era realmente assim. O problema com os paradoxos da probabilidade é que existem termos indefiníveis, vários caminhos para a solução e atalhos simples que geralmente são tomados sem justificativa adequada. O resultado é que, para convencer um defensor da resposta "errada" de que a sua é "rigorosa", você precisa demonstrar a sua sem espaço para objeções e encontrar um buraco inevitável no argumento oposto. Acho que minhas tentativas de apontar esse buraco são o que você achou "irritado".
precisa saber é o seguinte

1
apenas querendo alguma clareza - o que você acha que SB observou quando ela foi acordada? além disso, o espaço de amostra que você constrói possui duas restrições: 1) o marginal de cara / coroa precisa somar 0,5; e 2) os dois probs "cabeças + terça-feira" precisam ser iguais a zero.
probabilityislogic

3

Acabei de voltar a tropeçar nisso. Refinei alguns dos meus pensamentos desde o último post e achei que poderia encontrar um público receptivo para eles aqui.

Primeiro, sobre a filosofia de como lidar com essa controvérsia: digamos que os argumentos A e B existam. Cada um tem uma premissa, uma sequência de deduções e um resultado; e os resultados diferem.

A melhor maneira de provar que um argumento está incorreto é invalidar uma de suas deduções. Se isso fosse possível aqui, não haveria controvérsia. Outra é refutar a premissa, mas você não pode fazer isso diretamente. Você pode argumentar por que não acredita em um, mas isso não resolverá nada, a menos que você possa convencer os outros a parar de acreditar.

Para provar indiretamente que uma premissa está errada, é preciso formar uma sequência alternativa de deduções que leve a um absurdo ou a uma contradição da premissa. A maneira falaciosa é argumentar que o resultado oposto viola sua premissa. Isso significa que alguém está errado, mas não indica qual.

+++++

A premissa do halter é "nenhuma informação nova". Sua sequência de deduções está vazia - nenhuma é necessária. Pr (Cabeças | Despertado) = Pr (Cabeças) = ​​1/2.

Os terceiros (especificamente, Elga) têm duas premissas - Pr (H1 | Desperta e Segunda) = Pr (T1 | Desperta e Segunda), e Pr (T1 | Desperta e Caudas) = ​​Pr (T2 | Desperta e Caudas). Uma sequência incontestável de deduções leva a Pr (Cabeças | Desperta) = 1/3.

Observe que os terceiros nunca assumem que há novas informações - suas premissas são baseadas em qualquer informação existente - "nova" ou não - quando o SB está acordado. E nunca vi alguém argumentar por que uma premissa de sede está errada, exceto que ela viola o resultado do halter. Portanto, os halfers não forneceram nenhum dos argumentos válidos que listei. Apenas o falacioso.

Mas há outras deduções possíveis de "nenhuma informação nova", com uma sequência de deduções que começam com Pr (Cabeças | Desperta) = 1/2. Uma é que Pr (Cabeças | Desperta e Segunda-feira) = 2/3 e Pr (Caudas | Desperta e Segunda-feira) = 1/3. Isso contradiz a premissa da sede, mas como eu disse, isso não ajuda a causa do halter, pois ainda pode ser a premissa deles que está errada. Ironicamente, esse resultado prova algo - que a premissa do halter se contradiz. No domingo, SB diz Pr (Heads | Monday) = Pr (Tails | Monday), portanto, adicionar as informações "Awake" permitiu que ela atualizasse essas probabilidades. É uma informação nova.

Então, eu provei que a premissa do halter não pode estar certa. Isso não significa que os terceiros tenham razão, mas significa que os meios não forneceram nenhuma evidência contrária.

+++++

Há outro argumento que acho mais convincente. Não é completamente original, mas não tenho certeza se o ponto de vista adequado foi enfatizado o suficiente. Considere uma variação do experimento: o SB é sempre despertado nos dois dias; normalmente está em uma sala pintada de azul, mas na terça-feira após o Heads está em uma sala pintada de vermelho. O que ela deveria dizer que a probabilidade de Heads é se ela se encontra acordada em uma sala azul?

Eu não acho que alguém argumentaria seriamente que é qualquer coisa menos 1/3. Existem três situações que podem corresponder à atual: todas são igualmente prováveis ​​e apenas uma inclui chefes.

O ponto mais importante é que não há diferença entre esta versão e a original. O que ela "sabe" - suas "novas informações" - é que não é H2. Não importa como, ou se ela saberia que poderia ser H2, se pudesse. Sua capacidade de observar situações que ela sabe que não se aplicam é irrelevante se ela sabe que não se aplicam.

Eu não posso acreditar na premissa do halter. É baseado em um fato - que ela não pode observar H2 - que não pode importar, pois ela pode, e observa, que não é H2.

Portanto, espero ter fornecido um argumento convincente sobre o motivo pelo qual a premissa do halter é inválida. Ao longo do caminho, sei que demonstrei que o resultado da sede deve estar correto.


Pr (cabeças, segunda-feira, azul) = 50%, Pr (cabeças, segunda-feira, vermelho) = 0%, Pr (cabeças, terça-feira, azul) = 0%, Pr (cabeças, terça-feira, vermelho) = 0%, Pr ( Caudas, segunda-feira, azul) = 25%, Pr (caudas, segunda-feira, vermelho) = 0%, Pr (caudas, terça-feira, azul) = 25%, Pr (caudas, terça-feira, vermelho) = 0%. Assim, halfer.
Dax Fohl # 1/15

p(d1|h)=1,p(d2|h)=0p(d1|t)=p(d2|t)=0.5d1d2p(d1d2|h)=1p(d1d2|t)=p(d1|t)+p(d2|t)=1=p(d1d2|h). a probabilidade é igual em cada caso de cara / coroa, por isso não atualizamos o anterior para cara. permanece em 50-50
probabilityislogic

3

Um terço dos possíveis despertares são Heads e dois terços dos possíveis despertares são Tails. No entanto, metade das princesas (ou o que quer que seja) são princesas chefes e metade são princesas caudas. As princesas Tails, individualmente e em conjunto, experimentam o dobro de despertares que as princesas dos Chefes.

Do ponto de vista da princesa, ao acordar, existem três possibilidades. Ela é uma princesa dos Chefes que desperta pela primeira (e única) vez (H1T1T2P[H1]=0.5P[T1]=0.25P[T2]=0.25

$1/3$x$(1x)$(x)$(13x)/2$1/3

1/3

(Por outro lado, um técnico designado para ajudar no processo de vigília realmente teria apenas um terço de chance de ser designado para uma princesa dos Chefes.)


1/21/3

3

Quando você é despertado, em que grau você deve acreditar que o resultado do sorteio foi cara?

O que você quer dizer com " deveria "? Quais são as consequências das minhas crenças? Em tal experimento, eu não acreditaria em nada. Essa pergunta está marcada como decision-theory, mas, da maneira como esse experimento é concebido, não tenho incentivo para tomar uma decisão.

Podemos modificar o experimento de maneiras diferentes, para que eu me sinta inclinado a dar uma resposta. Por exemplo, posso adivinhar se fui acordado por causa de "Cabeças" ou "Caudas", e ganharia um doce por cada resposta correta que der. Nesse caso, obviamente, eu escolheria "Tails", porque, em experimentos repetidos, ganharia em média um doce por experimento: em 50% dos casos, o lançamento seria "Tails", eu ser despertado duas vezes e eu ganharia um doce nas duas vezes. Nos outros 50% ("Chefes") eu não ganhava nada. Se eu responder "Chefes", ganharia apenas meio doce por experimento, porque teria apenas uma chance de responder e estaria correto 50% do tempo. Se eu mesmo jogasse uma moeda justa pela resposta, eu3/4

3/81/41/41/8

como esse paradoxo pode ser resolvido de maneira estatisticamente rigorosa? Isso é possível?

Definir " maneira estatisticamente rigorosa ". A pergunta sobre uma crença não tem relevância prática. Somente ações são importantes.


2

A questão é ambígua e, portanto, apenas parece haver um paradoxo. A questão é colocada desta maneira:

Quando você é despertado, em que grau você deve acreditar que o resultado do sorteio foi cara?

O que é confundido com esta pergunta:

Quando você é despertado, em que grau você deve acreditar que Heads foi a razão pela qual você foi despertado ?

Na primeira pergunta, a probabilidade é 1/2. Na segunda pergunta, 1/3.

O problema é que a primeira pergunta é declarada, mas a segunda pergunta está implícita no contexto do experimento. Aqueles que inconscientemente aceitam a implicação dizem que é 1/3. Quem lê a pergunta literalmente diz que é 1/2.

Aqueles que estão confusos não sabem ao certo qual pergunta estão fazendo!


3
Eu também sou uma metade pela segunda questão.
Dax Fohl

nhntnnhntnhn+ntEnnn
probabilityislogic

1

Eu realmente gosto deste exemplo, mas argumentaria que há um ponto a ser confundido com algumas distrações incômodas.

Para evitar distrações incômodas, deve-se tentar discernir uma representação diagramática abstrata do problema que esteja claramente além da dúvida razoável (como uma representação adequada) e possa ser verificável manipulada (re-manipulada por terceiros qualificados para demonstrar as alegações). Como um exemplo simples, pense em um retângulo (matemático abstrato) e na afirmação de que ele pode ser transformado em dois triângulos.

Desenhe um retângulo à mão livre como uma representação de um retângulo matemático (em seu desenho, os quatro ângulos não serão adicionados exatamente a 180 graus e as linhas adjacentes não serão exatamente iguais ou retas, mas não haverá dúvida real de que ele representa um retângulo verdadeiro ) Agora, manipule-o desenhando uma linha de um canto oposto a outro, o que qualquer outra pessoa poderia fazer e você terá uma representação de dois triângulos que ninguém duvidaria razoavelmente. Qualquer questionamento sobre isso pode parecer bobagem, apenas é.

O argumento que tento enfatizar aqui é que, se você tiver uma representação além da dúvida razoável do problema do SB como uma distribuição de probabilidade conjunta e puder condicionar um evento que acontece no experimento nessa representação -, então, afirma se algo é aprendido por esse evento pode ser demonstrado por manipulação verificável e não requer discussão (filosófica) ou questionamento.

Agora é melhor apresentar minha tentativa e os leitores precisarão discernir se eu consegui. Utilizarei uma árvore de probabilidades para representar probabilidades conjuntas para o dia de sono nos experimentos (DSIE), o resultado do sorteio de moedas na segunda-feira (CFOM) e acordado, pois um estava dormindo no experimento (WGSIE). Vou desenhá-lo (na verdade, basta escrevê-lo aqui) em termos de p (DSIE) * p (CFOM | DSIE) * p (WGSIE | DSIE, CFOM).

Eu gostaria de chamar DSIE e CFOM de possíveis incógnitas e WGSIE como possível, então p (DSIE, CFOM) é um anterior ep (WGSIE | DSIE, CFOM) é um modelo de dados ou probabilidade e o teorema de Bayes se aplica, sem essa rotulagem. probabilidade apenas condicional que é logicamente a mesma coisa.

Agora sabemos que p (DSIE = segunda-feira) + p (DSIE = terça-feira) = 1 ep (DSIE = terça-feira) = ½ p (DSIE = segunda-feira)

então p (DSIE = Seg) = 2/3 ep (DSIE = Terça) = 1/3.

Agora P (CFOM = H | DSIE = segunda) = 1/2, P (CFOM = T | DSIE = segunda) = 1/2, P (CFOM = T | DSIE = terça) = 1.

P (WGSIE | DSIE =., CFOM =.) É sempre igual a um.

AnteriorIgual a

P (DSIE = Seg, CFOM = H) = 2/3 * ½ = 1/3

P (DSIE = Seg, CFOM = T) = 2/3 * ½ = 1/3

P (DSIE = ter, CFOM = T) = 1/3 * 1 = 1/3

Portanto, o marginal anterior para CFOM = 1/3 H e 2/3 T, e o posterior dado que você foi acordado enquanto dormia no experimento - será o mesmo (como não ocorre aprendizado) - então você é anterior a 2/3 T.

OK - onde eu errei? Preciso revisar minha teoria das probabilidades?


2
Estou com dificuldade para ver como isso ajuda a resolver o paradoxo. A que distribuição prévia você está se referindo? (E por favor - este não é o lugar para trazer o problema de Monty Salão Essa situação notória sempre gera mais discussão do que insight..)
whuber

Eu respondi ao comentário do @whuber.
Phaneron 30/10/12

Isso é realmente muito parecido com o problema de Monty Hall.
Psr

Onde você errou? taticamente, você deve quebrar esses três eventos com o CFOM primeiro, porque p (CFOM = H) = 0,5 e todos concordam com isso. O segundo é examinar o valor implícito de p (DSIE = Mon | CFOM = T) = p (DSIE = segunda) p (CFOM = T | DSIE = segunda) / p (CFOM = T) = (1/3) (1/2) / (1/2) = 1/3. Portanto, isso significa que se você dissesse a SB quando ela estivesse acordada "pelo jeito que a moeda jogava", então ela se inclinaria para pensar "provavelmente é terça-feira". Isso não parece certo para mim e, se eu desistir de uma aposta de 1 na terça-feira, com um pagamento de 1,80, ela deve aceitá-la. mas ela perderia em média.
probabilityislogic

desculpas - meu cálculo deve dar p (DSIE = Mon | CFOM = T) = 2/3 e não 1/3 .... mas isso muda o dia para "provavelmente é segunda-feira". também essa aposta seria oferecida apenas em um resultado da coroa.
probabilityislogic

1

Uma explicação simples para isso seria que existem três maneiras pelas quais a Bela Adormecida pode acordar duas das quais são de um lançamento do Tails. Portanto, a probabilidade deve ser de 1/3 para uma cabeça toda vez que ela acordar. Eu o descrevi em uma postagem no blog

O principal argumento contra o ponto de vista do "halter" é o seguinte: No sentido bayesiano, SB está sempre procurando ver quais novas informações ela possui. Na realidade, no momento em que ela decidiu participar do experimento, ela tem informações adicionais que, quando acorda, podem ser alguns dias. Ou, em outras palavras, a falta de informação (apagando a memória) é o que está fornecendo a evidência aqui, embora sutilmente.


1
Sim, isso faz parte do argumento Thirder. Mas isso não explica por que o argumento Halfer está incorreto.
whuber

1
Eu gosto disso, e acho que um pequeno ajuste o aprimorará ainda mais: suponha que se a moeda for "cara", uma será despertada na segunda-feira e, se for coroa, será despertada na terça-feira e novamente na quarta-feira. Há três dias em que alguém pode acordar e todos os três são igualmente prováveis. Quando a pessoa acorda na segunda-feira, a moeda terá sido cara; na terça ou quarta-feira, caudas.
Supercat 21/02

2
@ supercat Isso apenas assume que "três coisas" são "três probabilidades iguais", "apenas porque". Suponha que a moeda pesa um milhão a uma cabeça e esse argumento se desfaz. Você tem que calcular probabilidades reais. Segunda-feira é de 50%.
Dax Fohl

Nesse cenário, coloque 1.000.001 belezas em salas separadas e conte quantos despertares ocorreram após um golpe de "cabeça" e quantos depois de um golpe de "coroa". Haverá 1.000.002 despertares, dos quais 2 ocorrerão após o lançamento do tails, então as chances serão de 500.000: 1 cara.
Supercat 01/09

@DaxFohl: Veja o comentário anterior. Para o cenário de segunda / terça / quarta-feira, as probabilidades são iguais porque as probabilidades de cabeça / cauda são iguais. A polarização da moeda significaria que 1.000.000 de despertares de 1.000.002 ocorreriam na segunda-feira após as cabeças, um seria terça-feira após a coroa e uma quarta-feira após a coroa.
Supercat

1

Como muitas perguntas, depende do significado exato da pergunta:

Quando você é despertado, em que grau você deve acreditar que o resultado do sorteio foi cara?

Se você a interpreta como "quais são as probabilidades de uma moeda lançada ser cara", obviamente a resposta é "metade das probabilidades".

Mas o que você está perguntando não é (na minha interpretação) isso, mas "qual é a chance de o atual despertar ter sido causado por um chefe?". Nesse caso, obviamente, apenas um terço dos despertares são causados ​​por um chefe, então a resposta mais provável é "caudas".


Mas não há "terço de". Há um ou dois, não três, seis ou infinito. Portanto, nesse aspecto, as perguntas são as mesmas e ambas têm a resposta "1/2".
Dax Fohl # 01/09

1

Esta é uma questão muito interessante. Darei minha resposta como se eu estivesse dormindo bela. Eu sinto que um ponto chave para entender é que confiamos 100% no experimentador.

12

13

12

12

Então (3) segue da mesma maneira, exceto que, assim que lhe disserem que esta é a última vez que você está sendo despertado, o número de situações em que você poderá entrar diminui para 2 (como agora caem e essa é a primeira vez que você estava). despertar é impossível).


1
Como podem ocorrer 3 situações igualmente prováveis ​​com probabilidade 1/2?
Dax Fohl

1
@DaxFohl Porque eles não são mutuamente exclusivos.
Isaacg #

1

mnmn .

Especificamente, se a moeda for 'Cabeças', ela será despertada em ...





m

... e se a moeda for 'Coroa', ela será despertada ...





n

mn

m=1n=2

P(Heads)=P(Tails)=1/2.
nmD1D2Dm

D1
D2
D3


Dmm '

nm

D1
D2
D3


Dnn '

m+nD1D2Dm

P(D1|H)=P(D2|H)==P(Dm|H)=1m
D1D2Dn
P(D1|T)=P(D2|T)==P(Dn|T)=1n
Dii1im
P(DiH)=P(H)×P(Di|H)=12×1m=12m
P(DiT)=P(T)×P(Di|T)=12×1n=12n
m<in
P(DiH)=P(H)×P(Di|H)=12×0=0
P(DiT)=P(T)×P(Di|T)=12×1n=12n

D1D2...Dn

1Eum

P(DEu)=P(DEuH)+P(DEuT)=12m+12n
m<Eun
P(DEu)=P(DEuH)+P(DEuT)=0 0+12n=12n

D1D2...Dn

P(H|awake)=P(H|(D1D2...Dn))=P(H(D1D2Dn))P(D1D2Dn)=P((HD1)(HD2)(HDn))P(D1D2Dn)=P(HD1)+P(HD2)++P(HDn)P(D1)+P(D2)++P(Dn)=P(HD1)+P(HD2)++P(HDm)++P(HDn)P(D1)+P(D2)++P(Dm)++P(Dn)=12m×m+0×(nm)(12m+12n)×m+12n×(nm)=12+012+m2n+12m2n=1212+12=121=12

We already have the answer, but let's also calculate the probability of 'Heads' or 'Tails' given the awakening is happening on a certain day

for 1im

P(H|Di)=P(HDi)P(Di)=12m12m+12n=nm+n
P(T|Di)=P(TDi)P(Di)=12n12m+12n=mm+n

for m<in

P(H|Di)=P(HDi)P(Di)=0P(Di)=0
P(T|Di)=P(TDi)P(Di)=12n12n=1

I'm aware this is not an answer for those who believe the "1/3" answer. This is just a simple use of conditional probabilities. Thus, I don't believe this problem is ambiguous and therefore a paradox. It is though confusing for the reader by making unclear which are the random experiments and which the possible events of those experiments.


Welcome to our site! You might find it useful to use the Latex typesetting available here by including text in dollar symbols, so eg $x$ produces x. Using $$x$$ puts the equation on a new line and centers it. There are more tips on our editing help page, available when you're editing a post from the ? in the top right.
Silverfish

just thought I would point out that you get the "thirder" answer if you take the unweighted average of P(H|Di) over all i (as there are m non zero terms and n terms in total). Wondering if this has any intuition about it.
probabilityislogic

1

Since sleeping beauty can't remember how many times she has woken up before, we are not looking at the probability of Heads given that she has woken up just this once, but the probability of Heads given that she has woken up at least once:

So we have: P(Headsx1)=1/2 and not P(Headsx=1)=1/3

Thus the answer is 50% (the halfers are right), and there is no paradox.

People seem to be making this far, far more complex than it really is!


3
Please explain how you compute these probabilities. This answer seems not to resolve the paradox, but to ignore it entirely.
whuber

What do you mean I have ignored the paradox? There isn't one to ignore. I just explained that the thirder argument is nonsense because it assumes she thinks she woke up just once, whereas she knows she has woken up at least once, which means it could be equally heads or tails.
Kelvin

In other words, given that she will remember waking up just once regardless of how many times she actually does wake up, the probability must be the same (50%) regardless of how often heads was tossed each time she wakes up. Frequencies only count if you actually remember to count them!
Kelvin

1
That's problematic, because you seem to be proposing that a forgetful statistician (who errs by not counting some events, for instance) is just as objective as an unforgetful statistician. Also, given the overt Bayesian/subjective nature of the setting and the question, any appeal to frequencies requires care.
whuber

2
Many arguments in probability, beginning with Fermat's resolution of the Problem of Points in the fall of 1654, rely on "hypothetical frequencies that can never be counted." In that case his solution assumed that after a set of "best m out of n games" had been resolved before all n attempts, the probabilities could--and ought to--be computed as if the remaining games were played (although they never are). Thus it seems your claim about "actually counting the frequencies" was debunked a while ago.
whuber

1

Non-statistially

In all her congenial geniousness, Sleeping Beauty can perform the hypothetical experiment in her sleep, which will shape her believes:

import numpy as np

# Take clones of our Sleeping Beauties.
# One type of clones is persistently heads guessing,
# the other persistently guesses tails.

# Keeping score for heads guessing Sleeping Beauty ...
guessed_heads_right = 0

# ... and also for the tails guessing Sleeping Beauty
guessed_tails_right = 0

# Coding the toss outcomes
HEADS = 0
TAILS = 1


# Function to wake up heads guessing Sleeping Beauty
def heads_guesser_guesses_right(toss):
    return toss == HEADS


# Function to wake up tails guessing Sleeping Beauty
def tails_guesser_guesses_right(toss):
    return toss == TAILS


# Repeating the tossing and awakenings many times
for i in range(1000):

    # Toss fair coin, result is either HEADS or TAILS
    toss = np.random.randint(0, 2)

    # Waking SBs up first time and count successful guesses
    if heads_guesser_guesses_right(toss):
        guessed_heads_right += 1
    if tails_guesser_guesses_right(toss):
        guessed_tails_right += 1

    # If toss was TAILS, wake SBs up second time ...
    if toss == TAILS:

        # ... and counts successful guesses
        if heads_guesser_guesses_right(toss):
            guessed_heads_right += 1
        if tails_guesser_guesses_right(toss):
            guessed_tails_right += 1

# Print the raw statistics
print('Guessed HEADS right: {}'.format(guessed_heads_right))
print('Guessed TAILS right: {}'.format(guessed_tails_right))

Output:

Guessed HEADS right: 498
Guessed TAILS right: 1004

So our Sleeping Beauty will believe to better be guessing tails.

And statistically?

The above algorithm is not a statistically rigorous way to determine what to guess. However, it does make it ominously clear that in case of tails, she gets to guess twice, thus guessing tails is twice as likely to be the right guess. This follows from the operational procedure of the experiment.

Frequentist Probability

Frequentist Probability is a concept of statistics based on the theories of Fisher, Neyman and (Egon) Pearson.

A basic notion in Frequentist Probability is that the operations in experiments can be repeated, at least hypothetically, an infinite number of times. Each such operation n leads to an outcome En.

The Frequentist Probability of an outcome E is defined as: Pr(E)limn(EnN)

This is exactly what Sleeping Beauty did in her head above: if E is the event of being right while guessing HEADS, then Pr(E) converges to 13.

And her believes?

So when she finally arrives here in her reasoning she has statistically rigorous grounds to base her believes on. But how she will ultimately shape them, really depends on her psyche.


in that formal definition for Pr(E), doesn't the denominator need to be not a random variable? if you define "E" as tails the limiting fraction in SB problem is actually more like Enn+En isn't it?
probabilityislogic

so.....what is your event En then? after N=1 the value for E1 is either 1 or 0 right?
probabilityislogic

and the complementary event - guessing TAILS E1c. that would be 1E1 wouldn't it?
probabilityislogic

0

I just thought of a new way to explain my point, and what is wrong with the 1/2 answer. Run two versions of the experiment at the same time, using the same coin flip. One version is just like the original. In the other, three (or four - it doesn’t matter) volunteers are needed; each is assigned a different combination of Heads-or-Tails and Monday-or-Tuesday (the Heads+Tuesday combination is omitted if you use only three volunteers). Label them HM, HT, TM, and TT, respectively (possibly omitting HT).

If a volunteer in the second version is woken up this way, she knows she was equally likely to have been labeled HM, TM, or TT. In other words, the probability she was labeled HM, given that she is awake, is 1/3. Since the coin flip and day correspond to this assignment, she can trivially deduce that P(Heads|Awake)=1/3.

The volunteer in the first version could be woken more than once. But since "today" is only one of those two possible days, when she is awake she has exactly the same information as the awake volunteer in the second version. She knows that her current circumstances can correspond to the label applied to one, AND ONLY ONE, of other volunteers. That is, she can say to herself "either the volunteer labeled HM, or HT, or TT is also awake. Since each is equally likely, there is a 1/3 chance it is HM and so a 1/3 chance the coin landed tails."

The reason people make a mistake is that they confuse "is awake sometime during the experiment" with "is awake now." The 1/2 answer comes from the original SB saying to herself "either HM is the only other awake volunteer NOW, or TM and TT are BOTH awake SOMETIME DURING THE EXPERIMENT. Since each situation is equally likely, there is a 1/2 chance it is HM and so a 1/2 chance the coin landed tails." It is a mistake because only one other volunteer is awake now.


Each is not equally likely. Why would it be? Say the coin was weighted a million to one toward heads. You can't say three things are equally likely just because there are three of them.
Dax Fohl

in your second version - the three people are not certain that they will be woken up before the experiment starts. so being woken up once is informative in that case. you cannot provide a situation in the first case where sb is not woken up. sb knows this will happen - so the fact she observes it happen should not alter inferences
probabilityislogic

In the second version, each person is indeed certain that he or she will be woken. Two will be woken exactly once, and two will be woken exactly twice. But the point of the second version is to show why this kind of objection is a red herring.
JeffJo

0

Rather than giving a statistically rigorous answer, I'd like to modify the question slightly in a way that might convince people whose intuition leads them to be halfers.

Some researchers want to put you to sleep. Depending on the secret toss of a fair coin, they will awaken you either once (Heads) or nine-hundred and ninety-nine times (Tails). After each awakening they will put you back to sleep with a drug that makes you forget that awakening.

When you are awakened, what degree of belief should you have that the outcome of the coin toss was Heads?

Following the same logic as before, there could be two camps -

  • Halfers - the coin toss was fair, and SB knows this, so she should believe there is a one-half chance of heads.
  • Thousanders - if the experiment was repeated many times, the coin toss would be heads only one in a thousand times, so she should believe that the chance of heads is one in a thousand.

I believe that some of the confusion from the question as originally worded arises simply because there isn't much difference between a half and a third. People naturally think of probabilities as somewhat fuzzy concepts (particularly when the probability is a degree-of-belief rather than a frequency) and it's difficult to intuit the difference between degrees of belief of a half and a third.

However, the difference between a half and one in a thousand is much more visceral. I claim that it will be intuitively obvious to more people that the answer to this problem is one in a thousand, rather than a half. I would be interested to see a "halfer" defend their argument using this version of the problem instead.


Chris, the defence is unchanged. For a more intuitive view of the halfer position, consider what you'd do in the following (rather horrible) modification of the experiment. Each time you wake, you must say "A" or "B". At the end of the experiment (1) if Heads and you had said "A" then you score 1 point; (2) if Tails and you always said "B" then you score 0.1 points; (3) otherwise you score nothing. Then a random number in the range 0 to 1 is picked: if it's higher than your points total, you are killed. Are you really so confident in Tails that you'd always say "B" ...?
Creosote

what if you ask SB the question "which awakening is it?" - she should think "first time" with probability of 10012000 shouldn't she?
probabilityislogic

0

If sleeping beauty had to say either heads or tails - she would minimise her expected 0-1 loss function (evaluated each day) by picking tails. If, however, the 0-1 loss function was only evaluated each trial then either heads or tails would be equally good.


0

The thirders win

Instead of a coin, lets a assume a fair dice:

on friday, the sleeping beauty will sleep:
if the dice == 1 , they will awake her on saturday;
if the dice == 2 , they will awake her on saturday and sunday;
if the dice == 3 , they will awake her on saturday, sunday and monday;
if the dice == 4 , they will awake her on saturday, sunday, monday and tuesday;
if the dice == 5 , they will awake her on saturday, sunday, monday, tuesday and wednesday;
if the dice == 6 , they will awake her on saturday, sunday, monday, tuesday, wednesday and thursday;

Every time they ask her ' to what degree should you believe that the outcome of the dice was 1?'

The halfers will say the probability of dice = 1 is 1/6 The thirders will say the probability of dice = 1 is 1/21

But simulation clearly solves the problem :

days <- c("saturday", "sunday", "monday", "tuesday", "wednesday", "thursday")

#she will answer the dice was 1 every time 
#the trick here is that this is not absolutely random because every day implies the days before it. 


number_of_correct_answer <- 0
number_of_days <- 0
for (i in 1:1000){
dice <- sample(1:6,1)
for (item in days[1:dice]){
        number_of_correct_answer <- number_of_correct_answer + (dice == 1)
        number_of_days <- number_of_days + 1
}
}
number_of_correct_answer/number_of_days
#equals 1/21
#but if we divided by 1000 , which is incorrect because every experiment has more than one day we will get 1/6
number_of_correct_answer/1000
#equals 1/6

Also we can simulate the toss problem

days <- c("monday", "tuesday")
number_of_correct_answer <- 0
number_of_tosses <- 0
for (i in 1:1000){
        toss <- sample(1:2,1)
        for (item in days[1:toss]){
                number_of_correct_answer <- number_of_correct_answer + (toss == 1)
                number_of_tosses <- number_of_tosses + 1
        }
}
number_of_correct_answer/number_of_tosses
#equals 1/3
#but if we divided by 1000 , which is incorrect because every experiment can has more than one toss we will get 1/2
number_of_correct_answer/1000
#equals 1/2

seu critério para decidir quem está certo - número / fração correta de suposições, não está perguntando sobre probabilidade, porque o número de suposições feitas depende do resultado aleatório que você está simulando (ou seja, o denominador da fração é aleatório, não fixo)
probabilityislogic

suppose I charge you to play a game where I roll a die, x say. You pay me x and you guess which number that die is. suppose you guess d say. If you are right, then I give you d×gd dollars. The expected loss is (dgdd)/6(1+2+3+4+5+6d)/6=(dgd21)/6. So the "fair payoff" is to set gd=21/d. But the quantity d/21 is not a statement about the probability of side "d" coming up - it is a statement about the average loss from betting. the die probabilities are still 1/6
probabilityislogic

0

The apparent paradox derives from the false premise that probabilities are absolute. In fact, probabilities are relative to the definition of the events being counted.

This is an important point to understand for machine learning. We may wish to calculate the probability of something (eg, a transcription being correct given a piece of audio) through its decomposition into factors (the probabilities of letters at various times, P(Letter,Time|Audio)) modeled by a model that looks not at the whole audio but at an instant of it (it calculates P(Letter|Time,Audio)). P(Letter,Time) can be equal to P(Letter|Time) because the P's are defined differently. Different P's cannot be put into the same equation, but careful analysis can allow us to convert between the two domains.

Both P(Heads)=1/2 w.r.t. worlds (or births), and P(Heads)=1/3 w.r.t. instants (or awakenings) are true, but after being put to sleep Sleeping Beauty can only calculate probabilities with regard to instants because she knows her memory gets erased. (Before sleeping, she would calculate it with regard to worlds.)


I made a gross oversimplification of how speech may be modeled. A model that I am currently researching factors the utterance-level joint probability of a sentence being pronounced P(FirstPhoneme=P1,FirstPhonemeEndTime=T1,SecondPhoneme=P2,SecondPhonemeEndTime=T2,...|Audio=A) as P(FirstPhoneme,FirstPhonemeEndTime|Audio)P(SecondPhoneme,SecondPhonemeEndTime|FirstPhoneme,FPEndTime,Audio). The ML model itself looks at instants (individual timesteps) and predicts a timestep-level P(Phoneme=P,IsEndBoundary=True|Time=T,Audio=A)....
Aleksandr Dubinsky

Notice that the EndTime variable is split into an IsEndBoundary and a Time. This highlights that we are in different domains, just like Sleeping Beauty. Unlike in this question, the timestep-level training data is balanced, and by taking sufficient care to also account for the discrepancy between predicting the Nth phoneme and any phoneme, the numerical values come out approximately equal.
Aleksandr Dubinsky

0

I think the error is from the "thirders" and my reason for this is that the "awakenings" are not equally likely - if you are woken up then it is more likely to be "the first time" you were woken up - a 75% chance in fact.

This means you cannot count the "3 outcomes" (heads1, tails1, tails2) equally.

I think this also appears to be a case of AA=A where A is the proposition that SB is woken up. Saying something is true twice is the same thing as saying it once. SB has not been provided with new data, because the prediction from the prior was Pr(A|I)=1. Other ways of putting it are IA and IA=I. This means p(H|AI)=p(H|I)=0.5

The maths are clearly shown in the answer given by @pit847, so I won't repeat it in mine.

but, in terms of betting 1 dollar to guess the outcome at each awakening and you are given g dollars if you are correct. In this case, you should always guess tails because this outcome is "weighted". If the coin was tails, then you will bet twice. so your expected profit (call this U) if you guess heads is

E(U|h)=0.5×(g1)+0.5×(2)=g32
and similarly for guessing tails
E(U|t)=0.5×(1)+0.5×(2g2)=2g32

so you gain an extra g2 on average from guessing tails. the "fair bet" amount is g=32=1.5

Now if we repeat the above but use a third instead of a half, we get E(U|h)=g53 and E(U|t)=4g53. so we still have that guessing tails is a better strategy. Also, the "fair bet" amount is g=54=1.25

Now we can say that "thirders" should take a bet where g=1.4. But the "halfers" would not take this bet. @Ytsen de Boer has a simulation we can test. We have 498 heads and 502 tails, so betting tails would give you 1004×1.4=1405.6 in won bets. But... you had to play 1502 times to get this - which is a net loss of 97.6 - so the "thirders" lose! also note this is actually a slightly favourable outcome for betting tails.


You are confusing prior probabilities with posterior probabilities. Some will call them unconditional and conditional, because the difference depends on the observation that the outcome satisfies a condition. The error is the halfers, because they confuse SB's ability to observe an outcome, with the occurrence of that outcome. On Sunday Night, Heads hase a prior probability of 1/2. Heads in conjunciton with Monday has a prior probability of 1/2. And Heads in conjunction with Tuesday has a prior probability of 1/2. Yes, they still happen together, but SB won't observe it.
JeffJo

But when SB is awake, she needs a different set of prior probabilities. Say she always answers at noon. The prior prob. that this Noon is on day D after coin result C is 1/4 for each combination. But if she is awake, SB can observe that Heads+Tuesday+Noon is not the case, but the other three combinations could be. This lets her update to the correct posterior probabilities of 1/3 each. That means that the probability of being the first awaking is 2/3, not your 3/4. You can verify this by simulation if you want - 2 out of 3 awakenings are first. It also means the probability of Heads is 1/3.
JeffJo

@JeffJo- so what is the prior probability that sb will be woken up once or twice?
probabilityislogic

0

When Sleeping Beauty is awoken, she knows:

A fair coin was tossed to give result r; if r=H then this is the sole subsequent awakening; and if r=T then this is one of two subsequent awakenings.

Call this information I. Nothing else is relevant to her question, which is:

What is prob(r=H|I)?

This is a question of assigning probabilities, as opposed to inferring them. If w is the number of the awakening, then I is equivalent to

(r=Hr=T)(r=Hw=1)(r=T(w=1w=2))

which is logically equivalent to

(r=Hw=1)(r=Tw=1)(r=Tw=2)

Sleeping Beauty has no further information. By the principle of insufficient reason, she is obliged to assign a probability of 13 to each disjunct. Therefore, prob(r=H|I)=13.


PS

On seconds thoughts, the preceding answer applies when "fair coin" is interpreted to mean merely that there are two possibilities for the coin flip result, H or T. But probably a more faithful interpretation of the phrase "fair coin" is that it specifies directly that prob(r=H|I)=12, whereupon the answer is given in the problem statement.

In my view, however, statements of this sort are technically inadmissible, because a probability is something which must be worked out from the antecedent and consequent propositions. The phrase "the secret toss of a fair coin" raises the question: how does Sleeping Beauty know it's fair? What information does she have which establishes that? Normally the fairness of an ideal coin is worked out from the fact that there are two possibilities which are informationally equivalent. When the coin flip is mixed up with the wakening factor, we get three possibilities which are informationally equivalent. It's essentially a three-sided ideal coin, so we arrive at the solution above.


1
the principle of indifference only applies if the result is tails (ie I don't know what awakening it is, #1 or #2). This is not so for heads (ie I know it's #1). This means awakening #1 is more likely overall
probabilityislogic

@probabilityislogic I'm applying the principle directly to the disjunction. But you've just made me reconsider my answer, so I'm going to add a postscript.
CarbonFlambe

0

Late to the party, I know.

This question is very similar to the Monty Hall problem, where you are asked to guess behind which of 3 doors the prize is. Say you choose Door No.1. Then the presenter (who knows where the prize is) removes Door No.3 from the game, and asks if you'd like to switch your guess from Door No1 to Door No2, or stick with your initial guess. The story goes, you should always switch, because there's a higher probability for the prize to be in Door No2. People usually get confused at this point and point out that the probability of the prize being in either door is still 1/3. But that's not the point. The question isn't what the initial probability was, the real question is what are the chances your first guess was correct, vs what are the chances you got it wrong. In which case, you should switch, because the chances you got it wrong are 2/3.

As with the Monty Hall problem, things become incredibly clearer if we make 3 doors into a million doors. If there's a million doors, and you choose Door No1, and the presenter closes doors from 3 to one million, leaving only Doors No1 and Doors No2 in play, would you switch? Of course you would! The chances of you having picked Door No1 correctly in the first place was 1 in a million. Chances are you didn't.

In other words, the error in reasoning comes from believing that the probability of performing an action is equal to the probability of an action having been performed, when the context between the two does not make them equivalent statements. Phrased differently, depending on the context and circumstances of the problem, the probability of 'choosing correctly' may not be the same as the probability of 'having chosen correctly'.

Similarly with the sleeping beauty problem. If you were not awaken 2 times in the case of tails, but 1 million times, it makes more sense for you to say "this current awakening I'm experiencing right now is far more likely to be one of those in the middle of a streak of million awakenings from a Tails throw, than me having just happened to bump onto that single awakening that has resulted from Heads". The argument that it's a fair coin has nothing to do with anything here. The fair coin only tells you what are the chances of 'throwing' Heads, i.e. the probability of having to wake once versus a million times, when you first throw that coin. So if you ask SB before the experiment to choose whether she'll sleep once or a million times before each throw, her probability of 'choosing correctly' is indeed 50%.

But from that point on, assuming consecutive experiments, and the fact that SB is not told which experiment she's currently in, at any point that she's woken up, the probability of having 'thrown' Heads is far less, since she's more likely to be woken up from one of the million awakenings than from a single one.

Note that this implies consecutive experiments, as per the phrasing of the problem. If SB is reassured from the beginning of the experiment that there will only be a single experiment (i.e. only one toin coss), then her belief goes back to 50%, since at any point in time, the fact that she may have woken up many times before now becomes irrelevant. In other words, in this context, the probability of 'choosing correctly' and 'having chosen correctly' again become equivalent.

Note also, that any rephrasings using 'betting', are also different questions changing the context entirely. E.g. even in a single experiment, if you were to gain money each time you guessed correctly, you'd obviously go for tails; but this is because the expected reward is higher, not because the probability of tails is any different from heads. Therefore any 'solutions' that introduce betting are only valid to the extent that they collapse the problem to a very particular interpretation.


-1

Before SB goes to sleep she believes that the chance of the next coin flip being heads is 1/2. After she awakens, she believes that the chance that the most recent coin flip was heads is 1/3. Those events are not the same thing because there is not a one to one correspondence between awakening and coin flips.


-1

How about the following solution:

The question is to assess the probability of the coin coming up "heads". So, if the Sleeping Beauty were woken up on Monday and knew which day it is, she would indeed have to believe that the probability of "heads" is 50%.

However, were she to be woken up on Tuesday and knew which day it is, the probability of the coin coming up heads would have been zero.

Thus, the knowledge of which day it is adds crucial information changing the probability of "heads".

The Sleeping Beauty, however, doesn't know which day it is when she wakes up. We thus need to determine the probabilities of waking up either on Monday or Tuesday, respectively.

First, let's consider the probability of it being Tuesday. When the experimenter flips the coin, the outcome decides which scenario of the experiment he would follow. If it's heads, the SB is woken up only on Monday. If it's tails she is woken up both on Monday and Tuesday. The probabilities of the experiment taking one of these paths are 50/50 obviously. Now, if we are in the "two-awakenings" branch, the probability of it being a Tuesday or a Monday when the SB wakes up are both 50%. We can thus calculate the total probability of it being Tuesday when the SB wakes up as 0.5*0.5=0.25. Obviously then, the probability of it being Monday when she wakes up is 1-0.25=0.75

If the SB knew that she woke up on Tuesday, the probability of the coin having come up "heads" would have been zero.

If she, however, knew that she woke up on Monday, the probability of the coin having come up "heads" would have been 50%. But we know that the probability of it being Monday is 0.75. So, to find out the total probability of the coin having come up "heads" we need to multiply 0.75*0.5=0.375

The answer is thus, the probability that the coin came up "heads" is 37.5%

The above is just a suggestion. Please, point out, if you see flaws in my reasoning.


"If she, however, knew that she woke up on Monday, the probability of the coin having come up "heads" would have been 50%." That is not right. The conditional probability of heads given Monday, or P(HM), equals P(HM)/P(M)=P(H)/P(M). You end end up with 1/2.
Grassie
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.