Se você não padronizar seus dados, as variáveis medidas em grandes unidades de valor dominam a dissimilaridade calculada e as variáveis medidas em pequenas unidades de valor contribuem muito pouco.
Podemos visualizar isso em R via:
set.seed(42)
dat <- data.frame(var1 = rnorm(100, mean = 100000),
var2 = runif(100),
var3 = runif(100))
dist1 <- dist(dat)
dist2 <- dist(dat[,1, drop = FALSE])
dist1
contém as distâncias euclidianas para as 100 observações baseadas em todas as três variáveis, enquanto dist2
contém a distância euclidiana baseada var1
somente.
> summary(dist1)
Min. 1st Qu. Median Mean 3rd Qu. Max.
0.07351 0.77840 1.15200 1.36200 1.77000 5.30200
> summary(dist2)
Min. 1st Qu. Median Mean 3rd Qu. Max.
0.000072 0.470000 0.963600 1.169000 1.663000 5.280000
Observe como as distribuições de distâncias são semelhantes, indicando pouca contribuição de var2
e var3
, e as distâncias reais são muito semelhantes:
> head(dist1)
[1] 1.9707186 1.0936524 0.8745579 1.2724471 1.6054603 0.1870085
> head(dist2)
[1] 1.9356566 1.0078300 0.7380958 0.9666901 1.4770830 0.1405636
Se padronizarmos os dados
dist3 <- dist(scale(dat))
dist4 <- dist(scale(dat[,1, drop = FALSE]))
há uma grande mudança nas distâncias baseadas apenas nas var1
e nas três variáveis:
> summary(dist3)
Min. 1st Qu. Median Mean 3rd Qu. Max.
0.09761 1.62400 2.25000 2.28200 2.93600 5.33100
> summary(dist4)
Min. 1st Qu. Median Mean 3rd Qu. Max.
0.000069 0.451400 0.925400 1.123000 1.597000 5.070000
> head(dist3)
[1] 2.2636288 1.7272588 1.7791074 3.0129750 2.5821981 0.4434073
> head(dist4)
[1] 1.8587830 0.9678046 0.7087827 0.9282985 1.4184214 0.1349811
Como o cluster hierárquico usa essas distâncias, se é desejável padronizar ou não, isso dependerá do tipo de dados / variáveis que você possui e se deseja que as grandes coisas dominem as distâncias e, portanto, domine a formação do cluster. A resposta para isso é específica do domínio e específica do conjunto de dados.