Equivalência de teste de modelos não aninhados


12

Digamos que é uma função linear de x e um dummy d . Minha hipótese é que d em si é como um índice hedonista de um vector de outras variáveis, Z . Eu tenho suporte para isso em um M A N O V A de Z (ou seja, z 1 , z 2 , ..., z n ) em d . Existe alguma maneira de testar a equivalência desses dois modelos:yxddZMANOVAZz1z2znd

Modelo 1: y=b0+b1x+b2d+e1

Modelo 2: y=g0+ZG+e2

onde é o vetor de coluna dos parâmetros.G

Respostas:


8

Para começar, você precisa definir o conceito de equivalência . Pode-se pensar que dois modelos são equivalentes quando produzem quase a mesma precisão de previsão (este seria relevante para séries temporais e dados de painel); outro poderia estar interessado se os ajustes do modelo estivessem próximos . O primeiro é o objeto de diferentes validações cruzadas (geralmente o jack-knife ou alguns testes fora da amostra, o Rob accuracy()faz isso muito bem), o segundo é para a minimização de algum critério de informação.

Em microeconometria, a escolha é BIC , embora você também possa considerarAIC se estiver trabalhando com amostras pequenas. Observe que a escolha baseada no critério de minimização de informações também é relevante para modelos aninhados.

Uma boa discussão é dada no livro de Cameron e Trivedi (o capítulo 8.5 fornece uma excelente revisão dos métodos); detalhes teóricos mais específicos são encontrados em Hong e Preston aqui .

Grosso modo, escolher entre dois modelos o mais parcimonioso (com menos parâmetros para estimar, portanto, mais graus de liberdade) será sugerido como preferível. Uma informação critério introduz uma função de penalidade especial que restringe a inclusão de variáveis explicativas adicionais no modelo linear conceitualmente similar às restrições introduzidas por ajustado .R2

No entanto, você pode não estar apenas interessado em escolher o modelo que minimiza o critério de informação selecionado. O conceito de equivalência implica que alguma estatística de teste deve ser formulada. Portanto poderá ir para testes de razão de verosimilhança, quer Cox ou Voung testes, Davidson-MacKinnon J teste. euRJ

Finalmente, de acordo com as tags, você pode estar interessado apenas em Rfunções:

library(lmtest)
coxtest(fit1, fit2)
jtest(fit1, fit2)

fit1fit2coxtesteuRjtestJ


Obrigado, Dmitrij. Se bem entendi, coxtest e jtest são essencialmente testes aninhados modificados. Etapa 1: execute o modelo com o conjunto combinado de regressores de model1 e model2. Etapa 2: teste cada um dos modelos 1 e 2 separadamente como subconjuntos do "supermodelo". Estou certo? Além disso, na nota das medidas de CI, há alguma maneira de comparar estatisticamente as diferenças AIC / BIC entre os modelos 1 e 2? Nota: NÃO estou tentando escolher o modelo "melhor", mas você está certo ao tentar testar se dois modelos têm os mesmos ajustes.
user3671

@user, você não precisa adicionar nada a uma supermodelo, basta fornecer jtestou coxtestcom ajustes não aninhados da Etapa1. O critério de informação para não aninhados será um bom guia para qual modelo é mais estatisticamente adequado (parcimonioso), mas, para o teste de hipóteses, eu usaria qualquereuR(na verdade, a probabilidade do log faz parte de qualquer critério de informação) me testa. As conclusões serão um pouco próximas, mas como existem duas funções de penalidade determinadas de forma determinística, é um pouco complicado compará-las estatisticamente.
Dmitrij Celov
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.