O bootstrap (freqüentista) toma os dados como uma aproximação razoável à distribuição populacional desconhecida. Portanto, a distribuição amostral de uma estatística (uma função dos dados) pode ser aproximada, repetindo a amostragem repetida das observações com substituição e calculando a estatística para cada amostra.
Seja denotar os dados originais. (No exemplo dado, n = 5. ) Seja y b = ( y b 1 , … , y b n ) denotar uma amostra de autoinicialização. Essa amostra provavelmente terá algumas observações repetidas uma ou mais vezes e outras observações estarão ausentes. A média da amostra de bootstrap é dada por m b = 1y= ( y1, … , Yn)n = 5yb= ( yb1, … , Ybn)É a distribuição dembpor várias replicações de autoinicialização que é usada para aproximar a distribuição de amostragem da população desconhecida.
mb= 1n∑i = 1nybEu.
mb
A fim de compreender a ligação entre o bootstrap frequencista e o bootstrap Bayesiana, é instrutivo para ver como calcular a partir de uma perspectiva diferente.mb
Em cada amostra de auto-inicialização , cada observação y i ocorre de 0 a n vezes. Seja h b i o número de vezes que y i ocorre em y b , e seja h b = ( h b 1 , … , h b n ) . Assim, h b i ∈ { 0 , 1 , … , n - 1 , n }ybyEunhbEuyEuybhb= ( hb1, … , Hbn)hbEu∈ { 0 , 1 , … , n - 1 , n }e . Dado h b , podemos construir uma coleção de pesos não negativos que somam um: w b = h b / n , onde w b i = h b i / n . Com essa notação, podemos reexpressar a média da amostra de bootstrap como
m b = n ∑ i = 1 w b i∑ni = 1hbEu= nhbWb= hb/ nWbEu= hbEu/ n
mb= ∑i = 1nWbEuyEu.
Wbhb
( nWb) ∼ Multinomial ( n , ( 1 / n )ni = 1) .
mbWby
yW
μ = ∑i = 1nWEuyEu.
Aqui está um esboço em miniatura do modelo por trás do bootstrap bayesiano: A distribuição de amostragem para as observações é multinomial e a anterior para os pesos é uma distribuição Dirichlet limitante que coloca todo o seu peso nos vértices do simplex. (Alguns autores se referem a esse modelo como modelo de probabilidade multinomial .)
w ~ Dirichlet ( 1 , ... , 1 ) .
μWy
∑i = 1nWEug( yEu, θ ) = 0-,
g( yEu, θ )θ0 0-θyWWprobabilidade empírica e com método generalizado de momentos (GMM).)
∑i = 1nWEu( yEu- μ ) = 0.
θ = ( μ , v )g( yEu, θ ) = ( yEu- μ( yEu- μ )2- v) .