Como @ user2974951 diz em um comentário, pode ser superstição que uma distribuição Normal seja de alguma forma melhor. Talvez eles tenham a idéia errada de que, como os dados normais são o resultado de muitos erros aditivos, se forçarem os dados a serem normais, eles podem tratar os números resultantes como tendo erros aditivos. Ou a primeira técnica de estatísticas que eles aprenderam foi a regressão OLS e algo sobre Normal era uma suposição ...
Normalmente, a normalidade não é um requisito. Mas se é útil depende do que o modelo faz com os dados.
Por exemplo, os dados financeiros geralmente são anormais - isto é, apresentam um erro multiplicativo (porcentagem). Os autoencodificadores variacionais usam uma distribuição Normal no gargalo para forçar a suavidade e a simplicidade. As funções sigmóides funcionam mais naturalmente com dados normais. Os modelos de mistura costumam usar uma mistura de normais. (Se você pode assumir que é Normal, você só precisa de dois parâmetros para defini-lo completamente, e esses parâmetros são bastante intuitivos em seu significado.)
Também pode ser que desejemos uma distribuição simétrica unimodal para nossa modelagem e o Normal é isso. (E as transformações em "Normal" geralmente não são estritamente normais, apenas mais simétricas.)
A normalidade pode simplificar algumas contas para você e alinhar-se com a sua concepção do processo que gera seus dados: a maioria dos dados está no meio com valores baixos ou altos relativamente mais raros, que são de interesse.
Mas a minha impressão é que é o Cargo Cult na natureza