O que é um limite inferior apertado no tempo do coletor de cupons?


20

No problema clássico do colecionador de cupons , é sabido que o tempo necessário para concluir um conjunto de cupons escolhidos aleatoriamente satisfaz , e .TnE[T]nlnnVar(T)n2Pr(T>nlnn+cn)<ec

Esse limite superior é melhor que o dado pela desigualdade de Chebyshev, que seria aproximadamente 1/c2 .

Minha pergunta é: existe um limite inferior melhor que Chebyshev correspondente para T ? (por exemplo, algo como Pr(T<nlnncn)<ec )?


Um óbvio limite inferior é Pr(T<n)=0 , mas eu acho que você está ciente de que ...
Onestop

Respostas:


14

Estou fornecendo isso como uma segunda resposta, pois a análise é completamente elementar e fornece exatamente o resultado desejado.

Proposição Para c>0 e n1 ,

P(T<nlogncn)<ec.

A ideia por trás da prova é simples:

  1. Representa o tempo até que todos os cupões são recolhidos como T=i=1nTi , onde Ti é o tempo que o i th (até agora) único cupão é recolhido. O Ti são variáveis ​​aleatórias geométricas com tempos médios de nni+1 .
  2. Aplique uma versão do Chernoff acoplado e simplifique.

Prova

Para qualquer e qualquer , temos que s > 0 P ( T < t ) = P ( e - s T > e - s t ) e s t E e - s Tt s>0

P(T<t)=P(esT>est)estEesT.

Como e são independentes, podemos escrever t i E de e - s T = n Π i = 1 E de e - s t iT=iTiTi

EesT=i=1nEesTi

Agora, como é geométrico, digamos com probabilidade de sucesso , um cálculo simples mostra p i E e - s T i = p iTipi

EesTi=pies1+pi.

O para o nosso problema é , , , etc. Portanto, p 1 = 1 p 2 = 1 - 1 / n p 3 = 1 - 2 / n n i = 1 E e - s T i = n i = 1 i / npip1=1p2=11/np3=12/n

i=1nEesTi=i=1ni/nes1+i/n.

Vamos escolher e por algum . Então e , produzindo t = n log n - c n c > 0 e s t = n e - c e s = o e 1 / n1 + 1 / n n Π i = 1 i / ns=1/nt=nlogncnc>0

est=nec
es=e1/n1+1/n
i=1ni/nes1+i/ni=1nii+1=1n+1.

Juntando isso, obtemos que

P(T<nlogncn)nn+1ec<ec

como desejado.


Isso é muito bom e exatamente o que o médico pediu. Obrigado.
David

@ David, apenas curioso: Qual é o aplicativo pretendido?
cardeal

Longa história. Estou tentando provar um limite inferior para o tempo de mistura de uma cadeia de Markov que eu criei para analisar o tempo de execução de um algoritmo no qual estou interessado - o que acaba por reduzir ao limite inferior oc problema de coletor. BTW, eu estava brincando tentando encontrar exatamente esse tipo de encadernação no estilo Chernoff, mas não tinha descoberto como me livrar desse produto no . Boa chamada escolhendo :-). s = 1 / nis=1/n
David

@ David, , embora quase certamente subótimo, parecia a coisa mais óbvia a se tentar, uma vez que dava , que é o mesmo termo que o obtido na derivação para o limite superior. e s t = n e - cs=1/nest=nec
cardeal

1
Pedido : A prova que dei acima é minha. Eu trabalhei nisso por prazer, pois o problema me intrigou. No entanto, não reivindico novidade. De fato, não consigo imaginar que uma prova semelhante usando uma técnica semelhante ainda não exista na literatura. Se alguém souber de uma referência, por favor, postá-lo como um comentário aqui. Eu ficaria muito interessado em saber de um.
cardeal

9

Embora o @cardinal já tenha dado uma resposta que fornece exatamente o limite que eu estava procurando, encontrei um argumento semelhante ao estilo Chernoff que pode fornecer um limite mais forte:

Proposição : (isso é mais forte para )

Pr(Tnlogncn)exp(3c2π2).
c>π23

Prova :

Como na resposta do @ cardinal, podemos usar o fato de que é uma soma de variáveis ​​aleatórias geométricas independentes com probabilidades de sucesso . Daqui resulta que e .TTipi=1i/nE[Ti]=1/piE[T]=i=1nE[Ti]=ni=1n1inlogn

Defina agora novas variáveis e . Podemos então escrever Si:=TiE[Ti]S:=iSi

Pr(Tnlogncn)Pr(TE[T]cn)=Pr(Scn)
=Pr(exp(sS)exp(scn))escnE[esS]

Calculando as médias, temos

E[esS]=iE[esSi]=ies/pi1+1pi(es1)e12s2ipi2
onde a desigualdade decorre dos fatos que também para .es1sez1+ze12z2z0

Portanto, como , podemos escrever ipi2=n2i=1n11i2n2π2/6

Pr(Tnlogncn)e112(nπs)2scn.

Minimizando , finalmente obtemos s>0

Pr(Tnlogncn)e3c2π2

1
(+1) Modulo alguns erros menores, isso é legal. Expandir algo próximo da média, como você fez, geralmente funciona melhor. Não estou surpreso ao ver a convergência de ordem superior à luz dos resultados assintóticos. Agora, se você mostrar um limite superior semelhante, isso prova é subexponencial na terminologia de Vershynin, que tem muitas implicações em relação à concentração da medida. (Tnlogn)/n
cardeal

1
O argumento não parece generalizar diretamente para o limite superior. Trocando por (e por ), pode-se seguir as mesmas etapas até o ponto de calcular . Nesse ponto, no entanto, o melhor que posso fazer é usar , que ainda deixa e eu não 't sabe o que fazer com esteccssE[esS]ies/pi1spiez1zexp(z22(1z))
E[esS]e12s2ipi2(1s/pi)
David

2
Curiosamente, porém, todo o argumento (para o limite inferior) parece funcionar não apenas para o problema do coletor de cupons, mas para qualquer soma de variáveis ​​geométricas independentes não idênticas e com variação limitada. Especificamente: dado , onde cada é uma GV independente com probabilidade de sucesso , e onde , então T=iTiTipiipi2A<
Pr(TE[T]a)ea22A
David

4

Nota importante : Decidi remover a prova que dei originalmente nesta resposta. Foi mais longo, mais computacional, usou martelos maiores e provou um resultado mais fraco em comparação com a outra prova que eu dei. Ao redor, uma abordagem inferior (na minha opinião). Se você estiver realmente interessado, suponho que você possa ver as edições.

Os resultados assintóticos que citei originalmente e que ainda são encontrados abaixo nesta resposta mostram que, como , podemos fazer um pouco melhor do que o limite provado na outra resposta, que vale para todos os .n n


Os seguintes resultados assintóticos são válidos

P(T>nlogn+cn)1eec

e

P(Tnlogncn)eec.

A constante e os limites são tomados como . Observe que, embora estejam separados em dois resultados, eles são praticamente o mesmo resultado, pois não é obrigado a ser não-negativo nos dois casos. n ccRnc

Veja, por exemplo, Motwani e Raghavan, Randomized Algorithms , pp. 60--63 para uma prova.


Além disso : David gentilmente fornece uma prova de seu limite superior declarado nos comentários a esta resposta.


Sim, vale para todo fixo . Uma prova (muito simples) pode ser encontrada, por exemplo, no livro de Levin, Peres e Wilmer, Markov Chains and Mixing Times, Proposition 2.4. A prova não funciona para o limite inferior, no entanto. n
David

1
De fato, eu também poderia transcrever a prova aqui: "Seja o evento em que o ésimo [cupom] não aparece entre os primeiros cupons sorteados. Observe primeiro que . Como cada tentativa tem probabilidade de não receber o cupom e as tentativas são independentes, o lado direito acima é delimitado acima por , provando (2.7). " iAiinlogn+cnP(τ>nlogn+cn)=P(iAi)iP(Ai)1n1ii(11/n)nlogn+cnnexp(nlogn+cnn)=ec
David

@ David, isso é agradável e simples o suficiente. Eu rapidamente comecei a expandir a fórmula de inclusão-exclusão por outro termo, mas não cheguei a lugar nenhum rapidamente e não tive tempo de analisá-lo mais. O evento é equivalente ao evento em que nenhum cupom é deixado após as avaliações de . Deve haver um martingale associado a isso. Você tentou a desigualdade de Hoeffding na martingale associada (presumida)? O resultado assintótico sugere forte concentração da medida. {T<tn}tn
cardeal

@ David, há um sinal na sua prova acima, mas tenho certeza de que isso é óbvio para outros leitores também.
cardeal

@ David, por favor, veja minha outra resposta postada para sua pergunta. O método é diferente do limite superior que você fornece, mas as ferramentas empregadas são quase tão elementares, em contraste com a resposta que eu dei aqui.
cardeal

2

Benjamin Doerr fornece (no capítulo "Analisando heurísticas de pesquisa randomizada: ferramentas da teoria das probabilidades" no livro "Teoria das heurísticas de pesquisa randomizada", consulte o link para um PDF on-line) uma prova bastante simples de

Proposição Seja o tempo de parada do processo de coleta de cupons. Então .TPr[T(1ϵ)(n1)lnn]enϵ

Isso parece dar os assintóticos desejados (da segunda resposta do @ cardeal), mas com a vantagem de ser verdadeiro para todos os e .nϵ

Aqui está um esboço de prova.

Esboço de prova: Seja o evento em que o ésimo cupom é coletado nos primeiros sorteios. Assim, . O fato principal é que os estão correlacionados negativamente, para qualquer , . Intuitivamente, isso é bastante claro, pois saber que o ésimo cupom nos primeiros draws tornaria menos provável que o -ésimo cupom também fosse sorteado nos primeiros draws. i t Pr [XiitPr[Xi=1]=(11/n)tXiI[n]Pr[iI,Xi=1]iIPr[Xi=1]itjt

Pode-se provar a afirmação, mas ampliando o conjunto em 1 a cada etapa. Em seguida, ele reduz a mostrar que , para . Equivalentemente, calculando a média, reduz-se a mostrar que . Doerr apenas fornece um argumento intuitivo para isso. Uma avenida para uma prova é a seguinte. Pode-se observar que, condicionado ao cupom que vem depois de todos os cupons em , que a probabilidade de sacar um novo cupom de depois de sacar até agora é agora , em vez do anteriorIPr[iI,Xi=1|Xj=1]Pr[iI,Xi=1]jIj I I k | I | - kPr[iI,Xi=1|Xj=0]Pr[iI,Xi=1]jIIk | I| -k|I|kn1 jeu|I|kn . Assim, decompondo o tempo para coletar todos os cupons como uma soma de variáveis ​​aleatórias geométricas, podemos ver que o condicionamento no código vindo depois que aumenta as probabilidades de sucesso e, portanto, fazer o condicionamento apenas aumenta a probabilidade de coletar os cupons mais cedo ( por dominância estocástica: cada variável aleatória geométrica é aumentada, em termos de dominância estocástica, pelo condicionamento, e essa dominância pode ser aplicada à soma).jI

Dada essa correlação negativa, segue-se que , que fornece a limite desejado com . t = ( 1 - ϵ ) ( n - 1 ) ln nPr[T(1ϵ)(n1)lnn](1(11/n)t)nt=(1ϵ)(n1)lnn

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.