Um pouco sobre os termos primeiro. Por definição, a variável de controle é mantida constante durante o estudo, portanto você não pode usá-la em regressão. Você provavelmente quer dizer variáveis que devem ser estatisticamente controladas . Tais como covariáveis ou fatores de bloqueio (como após o delineamento experimental de blocos ao acaso)
As pessoas executam regressão ou ANOVA com essas variáveis, não apenas para eliminar seus efeitos das variáveis preditoras, mas principalmente para verificar se seus próprios efeitos são significativos. Se for significativo, sua inclusão no modelo é totalmente garantida. Caso contrário, eles podem ser melhor excluídos do modelo.
Isso é importante principalmente para um fator de bloqueio. Se você o deixar no modelo, apesar de não ser significativo, corre o risco de perder o efeito das variáveis preditoras devido à diminuição no termo Erro df , - o fator de bloqueio diminui o Erro e seu df , e parece haver uma situação competitiva. A significância dos preditores pode diminuir ou aumentar, dependendo de "o que vencer" - queda do erro soma dos quadrados da queda do seu df . Essa pode ser a razão pela qual as pessoas preferem modelos mais concisos às vezes.
Outro motivo para isso pode ser o fato de, para amostras tão moderadas quanto 100 inclusões, muitos IVs, mesmo que todos pareçam importantes ou significativos, levem ao sobreajuste .