Nós sabemos (por agora cerca de 40 anos, obrigado Adleman, Bennet e Gill) que a inclusão BPP P / poli, e um ainda mais forte BPP / poli P / hold poli. O "/ poly" significa que trabalhamos de maneira não uniforme (um circuito separado para cada comprimento de entrada ), enquanto P sem esse "/ poly" significa que temos uma máquina de Turing para todos os comprimentos de entrada possíveis , ainda mais do que, digamos, = o número de segundos para o próximo "Big Bang".⊆ n n n
Pergunta 1: Que novidade uma prova (ou reprovação) de BPP = P contribuiria para o nosso conhecimento depois de conhecermos BPP P / poly?
Em "novo", quero dizer consequências realmente surpreendentes, como colapso / separação de outras classes de complexidade. Compare isso com as conseqüências que a prova / reprovação de NP P / poli forneceria.
Pergunta 2: Por que não podemos provar BPP = P de maneira semelhante à prova de BPP / poly P / poly?
Um obstáculo "óbvio" é a questão do domínio finito vs. infinito: os circuitos booleanos funcionam sobre domínios finitos , enquanto as máquinas de Turing trabalham sobre o conjunto inteiro de - strings de qualquer comprimento. Portanto, para des aleatorizar os circuitos booleanos probabilísticos, basta tirar a maioria das cópias independentes de um circuito probabilístico e aplicar a desigualdade de Chernoff, juntamente com o limite da união. Obviamente, em domínios infinitos , essa regra simples de maioria não funcionará.
Mas é este (domínio infinito) um verdadeiro "obstáculo"? Usando os resultados da teoria estatística de aprendizagem (dimensão VC), já podemos provar que BPP / poly P / poly também se aplica a circuitos que trabalham em domínios infinitos , como circuitos aritméticos (trabalhando sobre todos os números reais); veja, por exemplo, este artigo de Cucker al. Ao usar uma abordagem semelhante, tudo o que precisamos é mostrar que a dimensão VC das máquinas de Turing com tempo poli não pode ser muito grande. Alguém viu alguma tentativa de dar esse último passo?
NOTA [adicionado em 10.10.2017]: No contexto da des randomização, a dimensão VC de uma classe das funções é definida como o número máximo para o qual existem funções em tais que para cada S \ subseteq \ {1, \ ldots, v \} existe um ponto (x, y) \ em X \ Y vezes com f_i (x) = y sse i \ em S . Ou seja, quebramos não os conjuntos de pontos via funções, mas sim conjuntos de funções via pontos. (As duas definições resultantes da dimensão VC estão relacionadas, mas exponencialmente.)
Os resultados (conhecidos como convergência uniforme em probabilidade ) implicam o seguinte: se para cada entrada , uma função escolhida aleatoriamente (sob alguma distribuição de probabilidade em ) satisfaz para uma constante , então pode ser calculado em todas as entradas como a maioria de alguns (fixa) funciona a partir de . Veja, por exemplo, Corolário 2 no artigo de Haussler . [Para que isso ocorra, existem algumas condições leves de mensurabilidade em ]
Por exemplo, se é o conjunto de todos os polinômios computáveis por circuitos aritméticos de tamanho , todos os polinômios em têm grau no máximo . Usando limites superiores conhecidos no número de padrões zero de polinômios (veja, por exemplo, este artigo ), pode-se mostrar que a dimensão VC de é . Isso implica na inclusão BPP / poly P / poly para circuitos aritméticos.