Praticamente todas as fontes ou pessoas com quem eu já interagi, exceto a fonte da Wolfram que você vinculou, referem-se ao processo como ajustando um modelo aos dados . Isso faz sentido, já que o modelo é o objeto dinâmico e os dados são estáticos (também conhecidos como fixos e constantes).
Para colocar um ponto, eu gosto da abordagem de Larry Wasserman. Em seu relato, um modelo estatístico é uma coleção de distribuições. Por exemplo, a coleção de todas as distribuições normais:
{Normal(μ,σ):μ,σ∈R,σ>0}
ou o conjunto de todas as distribuições Poisson:
{Poisson(λ):λ∈R,λ>0}
Ajustar uma distribuição aos dados é qualquer algoritmo que combina um modelo estatístico com um conjunto de dados (os dados são fixos) e escolhe exatamente uma das distribuições do modelo como aquela que "melhor" reflete os dados.
O modelo é o que muda (mais ou menos): estamos reduzindo-o de uma coleção inteira de possibilidades para uma única melhor opção. Os dados são apenas os dados; nada acontece com isso.