Existem algumas diferenças terminológicas em que a mesma coisa é chamada de nomes diferentes em diferentes disciplinas:
- Dados longitudinais em bioestatística são observações repetidas dos mesmos indivíduos = dados em painel em econometria.
- O modelo para uma variável dependente binária na qual a probabilidade de 1 é modelada como é chamado de modelo logit em econometria e modelo logístico em bioestatística. Os bioestatísticos tendem a trabalhar com a regressão logística em termos de odds ratio, já que seus s são frequentemente binários, de modo que os odds ratio representam as frequências relativas do resultado de interesse nos dois grupos da população. Essa é uma interpretação tão comum que você frequentemente verá uma variável contínua transformada em duas categorias (pressão arterial baixa versus pressão alta) para facilitar essa interpretação.x1 / ( 1 + exp[ - x′β] )x
- As "equações de estimativa" dos estatísticos são as "condições de momento" dos econométricos. As estimativas estatísticos são estimadores extremos dos economistas.M
Existem diferenças terminológicas em que o mesmo termo é usado para significar coisas diferentes em diferentes disciplinas:
- Efeitos fixos representam o na equação de regressão para estatísticos ANOVA, e um estimador "dentro" para econométricos.x′β
- Inferência robusta significa erros padrão corrigidos por heterocedasticidade para economistas (com extensões para erros padrão em cluster e / ou erros padrão corrigidos por autocorrelação) e métodos robustos a valores extremos para estatísticos.
- Parece que os economistas têm uma idéia ridícula de que amostras estratificadas são aquelas nas quais as probabilidades de seleção variam entre as observações. Estes devem ser chamados de amostras de probabilidades desiguais. Amostras estratificadas são aquelas em que a população é dividida em grupos predefinidos de acordo com características conhecidas antes da amostragem.
- A "mineração de dados" dos economometristas (pelo menos na literatura da década de 1980) costumava significar vários testes e armadilhas relacionadas a ele, que foram maravilhosamente explicadas no livro de Harrell . Os procedimentos de mineração de dados de cientistas da computação (e estatísticos) são métodos não paramétricos de encontrar padrões nos dados, também conhecidos como aprendizado estatístico .
Eu vejo as contribuições únicas da econometria a serem
- Maneiras de lidar com endogeneidade e modelos de regressão mal especificados, reconhecendo, como mpiktas explicou em outra resposta , que (i) as variáveis explicativas podem ser aleatórias (e, portanto, correlacionadas com erros de regressão que produzem viés nas estimativas de parâmetros), (ii) a os modelos podem sofrer de variáveis omitidas (que se tornam parte do termo do erro); (iii) pode haver heterogeneidade não observada de como os agentes econômicos reagem aos estímulos, complicando os modelos de regressão padrão. Angrist & Pischke é uma revisão maravilhosa dessas questões, e os estatísticos aprenderão muito sobre como fazer a análise de regressão. No mínimo, os estatísticos devem aprender e entender a regressão das variáveis instrumentais.
- De maneira mais geral, os economistas querem fazer o mínimo de suposições possível sobre seus modelos, para garantir que suas descobertas não dependam de algo tão ridículo quanto a normalidade multivariada. É por isso que GMM é muito popular entre os economistas, e nunca pego em estatísticas (mesmo que foi descrito como mínimo por Ferguson no final de 1960). É por isso que a adoção da probabilidade empírica cresceu exponencialmente na econometria, com apenas alguns seguidores nas estatísticas. É por isso que os economistas executam sua regressão com erros padrão "robustos" e estatísticos, com os erros padrão do OLS .s 2 ( X ′ X ) - 1χ2s2(X′X)−1
- Há muito trabalho no domínio do tempo com processos espaçados regularmente - é assim que os dados macroeconômicos são coletados. As contribuições únicas incluem processos integrados e cointegrados e métodos de heterocedasticidade condicional autoregressiva ((G) ARCH). Sendo geralmente uma micro pessoa, estou menos familiarizado com isso.
No geral, os economistas tendem a procurar uma forte interpretação dos coeficientes em seus modelos. Os estatísticos adotariam um modelo logístico como uma maneira de obter a probabilidade do resultado positivo, geralmente como um simples dispositivo preditivo, e também podem observar a interpretação do GLM com boas propriedades familiares exponenciais que possui, bem como conexões com análises discriminantes. Os economistas pensariam na interpretação da utilidade do modelo logit e ficariam preocupados com o fato de que apenas seja identificado nesse modelo, e com a heterocedasticidade que pode desencorajá-lo. (Os estatísticos se perguntam o queσβ/σσ são os economistas que estão falando, é claro.) É claro que uma utilidade linear em suas entradas é uma coisa muito engraçada da perspectiva da Microeconomia 101, embora algumas generalizações para funções semi-côncavas provavelmente sejam feitas em Mas-Collel.
O que os economistas geralmente tendem a perder, mas o IMHO se beneficiaria, são aspectos da análise multivariada (incluindo modelos de variáveis latentes como uma maneira de lidar com erros de medição e vários proxies ... os estatísticos também ignoram esses modelos) , diagnóstico de regressão (todas essas distâncias de Cook, MallowsCp, DFBETA, etc.), análise de dados ausentes (a identificação parcial de Manski é certamente sofisticada, mas o colapso do MCAR / MAR / NMAR e a imputação múltipla são mais úteis) e estatísticas da pesquisa. Muitas outras contribuições das estatísticas convencionais foram recebidas pela econometria e adotadas como uma metodologia padrão ou passadas de maneira a curto prazo: os modelos ARMA da década de 1960 provavelmente são mais conhecidos na econometria do que na estatística, como alguns programas de pós-graduação nas estatísticas, pode deixar de oferecer um curso de séries temporais nos dias de hoje; os estimadores de encolhimento / regressão da cordilheira dos anos 70 chegaram e se foram; o bootstrap dos anos 80 é uma reação instintiva para qualquer situação complicada, embora os economistas precisem estar mais cientes das limitações do bootstrap; a probabilidade empírica dos anos 90 viu mais desenvolvimento da metodologia dos economistas teóricos do que dos estatísticos teóricos; Os métodos Bayesianos computacionais dos anos 2000 estão sendo entretidos na econometria, mas meu sentimento é de que são paramétricos demais, baseados em modelos muito pesados, para serem compatíveis com o paradigma de robustez que mencionei anteriormente. Se os economistas encontrarão algum uso do aprendizado estatístico / bioinformática ou material espaço-temporal que é extremamente quente nas estatísticas modernas é uma decisão aberta.