Se você sabe exatamente qual é a distribuição subjacente, não precisa estudá-la. Às vezes, nas ciências naturais, você sabe exatamente a distribuição.
Se você conhece o tipo da distribuição, é necessário apenas estimar seus parâmetros e estudá-lo no sentido que você quis dizer. Por exemplo, em algum momento você sabe a priori que a distribuição subjacente é normal. Em alguns casos, você sabe até o que isso significa. Portanto, para o normal, a única coisa que resta a descobrir é o desvio padrão. Você obtém o desvio padrão da amostra e, voila, obtém a distribuição para estudar.
Se você não sabe qual é a distribuição, mas acha que ela é uma das várias na lista, tente ajustar essa distribuição aos dados e escolher a que melhor se encaixa. ENTÃO você estuda essa distribuição.
Finalmente, muitas vezes você não sabe o tipo de distribuição com a qual está lidando. E você não tem um motivo para acreditar que pertence a uma das 20 distribuições nas quais o R pode ajustar seus dados. O que você vai fazer? Ok, você olha para desvios médios e padrão, bom. Mas e se for muito assimétrico? E se a curtose for muito grande? e assim por diante. Você realmente precisa conhecer todos os momentos da distribuição para conhecer e estudá-lo. Portanto, nesse caso, a inicialização não paramétrica é útil. Você não pressupõe muita amostra simples e estuda seus momentos e outras propriedades.
Embora a inicialização não paramétrica não seja uma ferramenta mágica, ela tem problemas. Por exemplo, pode ser tendencioso. Eu acho que o bootstrapping paramétrico é imparcial