Prove ou refute: BPP (0.90,0.95) = BPP


8

Eu realmente gostaria da sua ajuda para provar ou refutar a seguinte reivindicação: . Na teoria da complexidade computacional, BPP, que significa tempo polinomial probabilístico de erro limitado é a classe de problemas de decisão solucionáveis ​​por uma máquina de Turing probabilística em tempo polinomial, com uma probabilidade de erro de no máximo para todas as instâncias . .BPP(0.90,0.95)=BPP13BPP=BPP(13,23)

Não é imediato que qualquer um dos conjuntos seja um subconjunto do outro, pois se a probabilidade de erro for menor que ela não precisará ser menor que e se for maior que não precisa ser maior que .0.913230.905

Estou tentando usar a desigualdade de Chernoff para provar a afirmação, não sei exatamente como. Eu realmente gostaria da sua ajuda. Existe uma afirmação geral sobre essas relações que eu possa usar?


Não sei ao certo o que significa a notação BPP (x, y). Será que uma string que não está no idioma é aceita com probabilidade não maior que x e que uma string no idioma é aceita com probabilidade maior que y?
Matt Lewis

Exatamente, você está correto.
Numerator

4
Dica: se você executar testes em uma string que não está no seu idioma, qual é a probabilidade de que mais do que, por exemplo, deles aceitem a string? Se você executar tentativas em uma string que está no idioma, qual é a probabilidade de que menos de deles rejeitem a string? O que acontece com suas probabilidades de aceitação / rejeição se você executar tentativas e disser 'aceitar qualquer sequência que seja aceita por mais de ' ', como ? n.9 n+cnn.95 ncnn.925 nn
Steven Stadnicki

4
A dica de Steven Stadnicki é para mostrar que . Para a outra direção, mostre que para cada . Da mesma maneira, você pode mostrar que para todas as constantes . BPP(0.9,0.95)BPP(1/3,2/3)BPP(1/3,2/3)BPP(ϵ,1ϵ)ϵBPP=BPP(α,β)0<α<β<1
Yuval Filmus

Respostas:


12

Para expandir meu comentário em uma resposta: a forma multiplicativa do limite de Chernoff diz que se a expectativa para a soma de variáveis ​​binárias aleatórias independentes é , então a probabilidade de se perder ' muito longe 'dessa expectativa é: .X=i=0nXiμPr(X>(1+δ)μ)<(eδ(1+δ)(1+δ))μ

Agora, imagine um procedimento em que, dada uma string para testar, executamos tentativas de nosso algoritmo (para que alguns sejam escolhidos posteriormente) e aceitamos se pelo menos dessas tentativas aceitam . Podemos usar o limite de Chernoff para encontrar a probabilidade de falha em termos de seguinte maneira:σnBPP(0.90,0.95)n0.925nσn

Let denotam o resultado do th julgamento, e assim o número de tentativas bem-sucedidas. Podemos assumir de maneira conservadora que nossa probabilidade de falsos positivos é ; isso significa que, se fizermos tentativas independentes em uma string , o número esperado de sucessos será . (Observe que uma probabilidade de falso positivo menor que levará a um valor esperado ainda mais baixo e, portanto, a limites ainda mais apertados nas estimativas futuras.) Agora, vejamos a probabilidade de termos mais de falsos positivos (ou seja, , que ). Nós levamosXiiX=Xi.9nσLμ=E(X)=0.9n.90.925nX>0.925nδ=(0.9250.9)1=136 ; então e, portanto, temos .(eδ(1+δ)(1+δ)).99961<29993000Pr(X>0.925n)<(29993000)0.9n

A partir daqui, deve ficar claro que, tomando suficientemente grandes, podemos reduzir essa probabilidade para . Portanto, para esse suficientemente grande , se aceitarmos a string apenas se o número de tentativas bem-sucedidas em for maior que , nossa probabilidade de aceitar uma string cairá abaixo de . Observe que este é constante , não depende do tamanho do nosso problema; já que estamos executando nosso polinomialn<13nσσ.925nσL13nBPP(0.9,0.95)algoritmo um número constante de vezes, o tempo total de execução do nosso novo procedimento ainda é polinomial. Uma análise semelhante indo na outra direção mostrará que a probabilidade de um 'falso negativo' (que para uma string que está em nossa linguagem) será limitada por para alguns , e, novamente, podemos tome grande o suficiente para limitar a probabilidade de um falso negativo por (ou, em outras palavras, para garantir pelo menos probabilidade de aceitar em uma string ) Isso mostra queX<.925ncncn1323σLBPP(.9,.95)BPP(13,23)BPP, e o comentário de Yuval mostra como provar a equivalência reversa por meio de um procedimento semelhante.

Canonicamente, isso é conhecido como amplificação de probabilidade e é um método imensamente útil para lidar com classes probabilísticas. As constantes específicas são menos importantes, obviamente, o fato de que o limite de Chernoff nos permite limitar nossas probabilidades de 'resultado falso' por alguma função exponencial do número de tentativas, para que elas possam ser arbitrariamente pequenas com apenas um número modesto de tentativas.


2
Você realmente não precisa de Chernoff aqui, Chebyshev é suficiente.
Yuval Filmus

@YuvalFilmus Oh, certamente; desde que o OP mencionou Chernoff especificamente, imaginei seguir esse caminho e, além da forma incômoda da constante, é IMHO realmente um pouco mais fácil, pois você não precisa descobrir os resultados (por mais simples que sejam) sobre a variação de uma distribuição binomial.
Steven Stadnicki
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.