A entrada da Wikipedia sobre Bootstrapping é realmente muito boa:
http://en.wikipedia.org/wiki/Bootstrapping_%28statistics%29
A razão mais comum pela qual a inicialização é aplicada é quando a forma da distribuição subjacente da qual uma amostra é retirada é desconhecida. Tradicionalmente, os estatísticos assumem uma distribuição normal (por boas razões relacionadas ao teorema do limite central), mas as estatísticas (como desvio padrão, intervalos de confiança, cálculos de potência etc.) estimadas via teoria da distribuição normal são estritamente válidas apenas se a distribuição da população subjacente for normal.
Ao amostrar repetidamente a própria amostra repetidamente, o bootstrapping permite estimativas independentes da distribuição. Tradicionalmente, cada "nova amostra" da amostra original seleciona aleatoriamente o mesmo número de observações que na amostra original. No entanto, estes são selecionados com substituição. Se a amostra tiver N observações, cada nova amostra de inicialização terá N observações, com muitas das amostras originais repetidas e muitas excluídas.
O parâmetro de interesse (por exemplo, odds ratio, etc.) pode ser estimado a partir de cada amostra inicializada. Repetir o bootstrap, digamos 1000 vezes, permite uma estimativa da "mediana" e intervalo de confiança de 95% na estatística (por exemplo, razão de chances), selecionando os percentis 2,5, 50 e 97,5.