(1) Por que estimadores quantílicas não são Frechet diferenciável mas o seu estimador de bootstrap ainda é consistente?■
Você precisa da diferencialidade do Hadamard (ou diferenciável compacta, dependendo da fonte de referência) como uma condição suficiente para fazer o bootstrap funcionar nesse caso, a mediana e qualquer quantil é diferenciado pelo Hadamard. A diferenciabilidade do Frechet é muito forte na maioria das aplicações.
Como geralmente basta discutir um espaço polonês, você deseja que uma funcionalidade localmente linear aplique um argumento típico de compactação para estender seu resultado de consistência à situação global. Veja também o comentário de linearização abaixo.
O teorema 2.27 de [Wasserman] lhe dará uma intuição de como a derivada de Hadamard é uma noção mais fraca. E Teorema 3,6 e 3,7 [Shao & Tu] dará condição suficiente para fraca consistência em termos de -Hadamard derivabilidade do funcional estatística t n com tamanho observação n .ρTnn
(2) O que vai afetar a consistência de estimadores de bootstrap?■
[Shao & Tu] pp.85-86 ilustram situações em que pode ocorrer inconsistência dos estimadores de autoinicialização.
(1) A inicialização é sensível ao comportamento cauda da população . A consistência de H B O OF requer condições de momento mais rigorosas do que as necessárias para a existência do limite de H 0 .HBOOTH0
(2) A consistência do estimador de bootstrap requer um certo grau de suavidade a partir da estatística fornecida (funcional) .Tn
(3) O comportamento do estimador de autoinicialização às vezes depende do método usado para obter dados da autoinicialização.
E no capítulo 3.5.2 da [Shao & Tu] eles revisitou o exemplo quantil usando um kernel suavização . Observe que os momentos são funcionais lineares, a citação na sua pergunta "Normalmente, a linearidade assintótica local parece ser necessária para a consistência do bootstrap" está exigindo algum nível de analiticidade do funcional, o que pode ser necessário porque, se isso falhar, você poderá criar algum caso patológico como a função Weierstrass (que é contínua, mas em nenhum lugar diferenciável).K
(3) linearidade Por local parece necessária para garantir a consistência do estimador de bootstrap?■
Quanto ao comentário "Normalmente, a linearidade assintótica local parece ser necessária para a consistência do bootstrap" feita por Mammen, como você mencionou. Um comentário de [Shao & Tu] p.78 é o seguinte, pois eles comentaram que a linearização (global) é apenas uma técnica que facilita a prova de consistência e não indica nenhuma necessidade:
A linearização é outra técnica importante para provar a consistência dos estimadores de autoinicialização, uma vez que os resultados para estatísticas lineares estão frequentemente disponíveis ou podem ser estabelecidos usando as técnicas introduzidas anteriormente. Suponha que uma dada estatística Tn possa ser aproximada por uma variável aleatória linear
Zn¯=1n∑ni=1ϕ(Xn)ϕ(X)X
Tn=θ+Zn¯+oP(1n−−√)
T∗nZ∗n¯TnZn¯{X∗1,⋯,X∗n}. If we can establish a result for T∗n similar to
(3.19), i.e.,
(3.20)T∗n=θ+Zn¯∗+oP(1n−−√)
then
the limit of HBOOT(x)(where x is the value of parameter)=P{n−−√(Tn−T∗n)≤x} is the same as that of P{n−−√(Zn¯−Zn¯∗)≤x}.We have thus reduced the
problem to a problem involving a "sample mean" Zn¯, whose
bootstrap distribution estimator can be shown to be consistent using
the methods in Sections 3.1.2-3.1.4.
And they gave an example 3.3 of obtaining the bootstrap consistency for MLE type bootstrapping. However if global linearity is effective in that way, it is hard to imagine how one would prove consistency without local linearity. So I guess that is what Mammen wanted to say.
■ (4)Further comments
Beyond the discussion provided by [Shao&Tu] above, I think what you want is a characterization condition of consistency of bootstrap estimators.
Pitifully, I do not know one characterization of consistency of a bootstrap estimator for a very general class of distribution in M(X). Even if there is one I feel it requires not only smoothness of T. But there does exist characterization for a certain class of statistical models like CLT class in [Gine&Zinn]; or commonly compactly supported class(directly from above discussion) defined over a Polish space.
Plus, the Kolmogorov-Smirnov distance, according to my taste is the wrong distance if our focus is classic asymptotics(in contrast to "uniform" asymptotics for empirical processes). Because KS-distance does not induce the weak topology which is a natural ground for study of asymptotic behavior, the weak topology on the space M(X) is induced by bounded Lipschitz distance(OR Prohorov-Levy distance) as adopted by [Huber] and many other authors when the focus is not empirical process. Sometimes the discussion of limiting behavior of empirical process also involve BL-distance like[Gine&Zinn].
I hate to be cynical yet I still feel that this is not the only statistical writing that is "citing from void". By saying this I simply feel the citation to van Zwet's talk is very irresponsible although van Zwet is a great scholar.
■ Reference
[Wasserman]Wasserman, Larry. All of Nonparametric Statistics, Springer, 2010.
[Shao&Tu]Shao, Jun, and Dongsheng Tu. The jackknife and bootstrap. Springer, 1995.
[Gine&Zinn]Giné, Evarist, and Joel Zinn. "Bootstrapping general empirical measures." The Annals of Probability (1990): 851-869.
[Huber]Huber, Peter J. Robust statistics. Wiley, 1985.