Como você declara, os modelos lineares geralmente são mais simples que os não lineares, o que significa que são executados mais rapidamente (construção e previsão), são mais fáceis de interpretar e explicar e geralmente são mais diretos nas medições de erros. Portanto, o objetivo é descobrir se as suposições de uma regressão linear se mantêm com seus dados (se você não suportar linear, basta seguir não linear). Geralmente, você repetiria seu gráfico de variável única com todas as variáveis individualmente, mantendo todas as outras variáveis constantes.
Talvez o mais importante seja saber se você pode aplicar algum tipo de transformação, interação variável ou variável dummy para mover seus dados para o espaço linear. Se você é capaz de validar as suposições, ou se conhece seus dados o suficiente para aplicar transformações ou modificações bem motivadas ou informadas de maneira inteligente, então deseja prosseguir com essa transformação e usar a regressão linear. Depois de ter os resíduos, é possível plotá-los em relação aos valores previstos ou variáveis independentes para decidir ainda mais se você precisa passar para métodos não lineares.
Há uma excelente análise das premissas da regressão linear aqui em Duke . As quatro principais premissas são listadas e cada uma é dividida em efeitos no modelo, como diagnosticá-lo nos dados e possíveis maneiras de "consertar" (ou seja, transformar ou adicionar) os dados para manter a suposição. Aqui está um pequeno trecho do topo, resumindo as quatro suposições abordadas, mas você deve ir lá e ler os detalhes.
Existem quatro premissas principais que justificam o uso de modelos de regressão linear para fins de inferência ou previsão:
(i) linearidade e aditividade da relação entre variáveis dependentes e independentes:
(a) O valor esperado da variável dependente é uma função linear de cada variável independente, mantendo as outras fixas.
(b) A inclinação dessa linha não depende dos valores das outras variáveis.
(c) Os efeitos de diferentes variáveis independentes no valor esperado da variável dependente são aditivos.
(ii) independência estatística dos erros (em particular, nenhuma correlação entre> erros consecutivos no caso de dados de séries temporais)
(iii) homoscedasticidade (variação constante) dos erros
a) versus tempo (no caso de dados de séries temporais)
(b) versus as previsões
(c) versus qualquer variável independente
(iv) normalidade da distribuição de erros.