Existem várias distinções entre os modelos de regressão linear e não linear, mas a principal matemática é que os modelos lineares são lineares nos parâmetros, enquanto os modelos não lineares não são lineares nos parâmetros. Pinheiro e Bates (2000, pp. 284-285), autores do nlme
pacote R, descreveram com elegância as considerações mais substanciais na seleção de modelos:
Ao escolher um modelo de regressão para descrever como uma variável de resposta varia com as covariáveis, sempre é possível usar modelos, como modelos polinomiais, que são lineares nos parâmetros. Ao aumentar a ordem de um modelo polinomial, é possível obter aproximações cada vez mais precisas da verdadeira função de regressão, geralmente não linear, dentro do intervalo observado dos dados. Esses modelos empíricos são baseados apenas na relação observada entre a resposta e as covariáveis e não incluem nenhuma consideração teórica sobre o mecanismo subjacente que produz os dados. Os modelos não lineares, por outro lado, costumam ser mecanicistas, ou seja, baseados em um modelo para o mecanismo que produz a resposta. Como conseqüência, os parâmetros do modelo em um modelo não linear geralmente têm uma interpretação física natural. Mesmo quando derivados empiricamente, os modelos não lineares geralmente incorporam características teóricas conhecidas dos dados, como assíntotas e monotonicidade e, nesses casos, podem ser considerados modelos semi-mecanicistas. Um modelo não linear geralmente usa menos parâmetros que um modelo linear concorrente, como um polinômio, fornecendo uma descrição mais parcimoniosa dos dados. Modelos não lineares também fornecem previsões mais confiáveis para a variável resposta fora do intervalo observado dos dados do que, por exemplo, os modelos polinomiais. dando uma descrição mais parcimoniosa dos dados. Modelos não lineares também fornecem previsões mais confiáveis para a variável resposta fora do intervalo observado dos dados do que, por exemplo, os modelos polinomiais. dando uma descrição mais parcimoniosa dos dados. Modelos não lineares também fornecem previsões mais confiáveis para a variável resposta fora do intervalo observado dos dados do que, por exemplo, os modelos polinomiais.
Também existem grandes diferenças entre os pacotes nlme e lme4 que vão além da questão da linearidade. Por exemplo, usando o nlme, você pode ajustar modelos lineares ou não lineares e, para qualquer tipo, especificar as estruturas de variação e correlação para erros dentro do grupo (por exemplo, autoregressivo); lme4 não pode fazer isso. Além disso, efeitos aleatórios podem ser corrigidos ou cruzados em qualquer pacote, mas é muito mais fácil (e mais eficiente em termos de computação) especificar e modelar efeitos aleatórios cruzados no lme4.
Eu recomendaria primeiro considerar: a) se você precisará de um modelo não-linear eb) se precisará especificar a variação dentro do grupo ou as estruturas de correlação. Se alguma dessas respostas for afirmativa, você deverá usar o nlme (considerando que está aderindo ao R). Se você trabalha muito com modelos lineares que cruzaram efeitos aleatórios ou combinações complicadas de efeitos aleatórios aninhados e cruzados, o lme4 provavelmente é uma escolha melhor. Você pode precisar aprender a usar os dois pacotes. Aprendi o lme4 primeiro e depois percebi que tinha que usar o nlme porque quase sempre trabalho com estruturas de erro autoregressivas. No entanto, ainda prefiro o lme4 ao analisar dados de experimentos com fatores cruzados. A boa notícia é que muito do que aprendi sobre o lme4 foi transferido bem para o nlme. De qualquer jeito,
Referências
Pinheiro, JC, & Bates, DM (2000). Modelos de efeitos mistos em S e S-PLUS . Nova Iorque: Springer-Verlag.