Meu entendimento da abordagem de bootstrap é baseado na estrutura de Wasserman (quase literalmente):
Seja uma estatística ( é a amostra iid retirada da distribuição ). Suponha que queremos estimar - a variação de dada .
A abordagem de autoinicialização segue estas duas etapas:
Estime com , onde é a função de distribuição empírica.
Aproximado utilizando simulação.
Entendo corretamente que a simulação na etapa 2 pode ser substituída por um cálculo preciso, exceto que é inviável para valores praticamente úteis de ? Aqui está o meu pensamento: é exatamente igual a uma integral de . é uma função de etapa, com um número finito etapas; para que possamos ignorar todos os pontos, exceto os pontos em quetem massa diferente de zero. Portanto, a integral é exatamente igual a uma soma determos. Uma vez exceder 14, um cálculo direto simples é impossível.
Mas tudo o que estamos tentando fazer é calcular uma integral. Por que não substituir a simulação de bootstrap de força bruta por qualquer um dos algoritmos numéricos tradicionais para obter integrais? Isso não resultaria em uma precisão muito maior pelo mesmo tempo computacional?
Mesmo algo tão simples como dividir o espaço da amostra em seções (talvez com volumes menores em que a estatística da amostra varie mais rapidamente) e estimar o valor da estatística em cada seção usando o ponto do meio, parece ser melhor do que o bootstrap cego.
o que estou perdendo?
Talvez o bootstrap funcione tão bem e tão rápido que não seja necessário fazer algo mais complicado? (Por exemplo, se a perda de precisão na etapa 1 for muito maior que na etapa 2, as melhorias na etapa 2 serão bastante inúteis.)