Hay algunas diferencias terminológicas donde lo mismo se llama nombres diferentes en diferentes disciplinas:
- Los datos longitudinales en bioestadística son observaciones repetidas de los mismos individuos = datos de panel en econometría.
- El modelo para una variable dependiente binaria en la que la probabilidad de 1 se modela como se denomina modelo logit en econometría y modelo logístico en bioestadística. Los bioestadísticos tienden a trabajar con la regresión logística en términos de odds ratios, ya que sus s son a menudo binarias, por lo que los odds ratios representan las frecuencias relativas del resultado de interés en los dos grupos de la población. Esta es una interpretación tan común que a menudo verá una variable continua transformada en dos categorías (presión arterial baja versus alta) para facilitar esta interpretación.1/(1+exp[−x′β])x
- Las "ecuaciones de estimación" de los estadísticos son las "condiciones de momento" de los econometristas. Los estimados estadísticos son estimadores extremos de econométricos.M
Existen diferencias terminológicas en las que el mismo término se usa para significar cosas diferentes en diferentes disciplinas:
- Los efectos fijos representan el en la ecuación de regresión para los estadísticos de ANOVA, y para un estimador "dentro" de los econométricos.x′β
- Inferencia robusta significa errores estándar corregidos por heteroscedasticidad para economistas (con extensiones a errores estándar agrupados y / o errores estándar corregidos por autocorrelación) y métodos robustos a valores estadísticos muy lejanos.
- Parece que los economistas tienen una idea ridícula de que las muestras estratificadas son aquellas en las que las probabilidades de selección varían entre las observaciones. Deben llamarse muestras de probabilidad desigual. Las muestras estratificadas son aquellas en las que la población se divide en grupos predefinidos de acuerdo con las características conocidas antes del muestreo.
- La "minería de datos" de los economometristas (al menos en la literatura de los años ochenta) solía significar múltiples pruebas y dificultades relacionadas que se explicaron maravillosamente en el libro de Harrell . Los procedimientos de minería de datos de los informáticos (y los estadísticos) son métodos no paramétricos para encontrar patrones en los datos, también conocidos como aprendizaje estadístico .
Veo que las contribuciones únicas de la econometría son
- Formas de lidiar con la endogeneidad y los modelos de regresión mal especificados, reconociendo, como mpiktas ha explicado en otra respuesta , que (i) las variables explicativas pueden ser aleatorias (y por lo tanto correlacionadas con errores de regresión que producen sesgos en las estimaciones de los parámetros), (ii) los modelos pueden sufrir variables omitidas (que luego se convierten en parte del término de error), (iii) puede haber una heterogeneidad no observada de cómo los agentes económicos reaccionan a los estímulos, lo que complica los modelos de regresión estándar. Angrist & Pischke es una maravillosa revisión de estos temas, y los estadísticos aprenderán mucho sobre cómo hacer análisis de regresión a partir de ella. Como mínimo, los estadísticos deberían aprender y comprender la regresión de variables instrumentales.
- En términos más generales, los economistas quieren hacer la menor cantidad posible de suposiciones sobre sus modelos, para asegurarse de que sus hallazgos no dependan de algo tan ridículo como la normalidad multivariante. Es por eso que GMM es muy popular entre los economistas, y nunca quedó atrapado en las estadísticas (a pesar de que Ferguson lo describió como mínimo a fines de la década de 1960). Es por eso que la adopción de la probabilidad empírica creció exponencialmente en la econometría, con un seguimiento marginal en las estadísticas. Es por eso que los economistas realizan su regresión con errores estándar "robustos", y estadísticos, con los errores estándar OLS predeterminados .χ2s2(X′X)−1
- Se ha trabajado mucho en el dominio del tiempo con procesos regularmente espaciados, así es como se recopilan los datos macroeconómicos. Las contribuciones únicas incluyen procesos integrados y cointegrados y métodos de heteroscedasticidad condicional autorregresiva (ARCH). Siendo generalmente una persona micro, estoy menos familiarizado con estos.
En general, los economistas tienden a buscar una interpretación sólida de los coeficientes en sus modelos. Los estadísticos tomarían un modelo logístico como una forma de llegar a la probabilidad del resultado positivo, a menudo como un simple dispositivo predictivo, y también pueden notar la interpretación GLM con buenas propiedades familiares exponenciales que posee, así como conexiones con análisis discriminante. Los economistas pensarían en la interpretación de la utilidad del modelo logit y se preocuparían de que solo se identifique en este modelo, y que la heterocedasticidad pueda descartarlo. (Los estadísticos se preguntarán quéβ/σσ están hablando los economistas, por supuesto.) Por supuesto, una utilidad que es lineal en sus entradas es algo muy divertido desde la perspectiva de Microeconomía 101, aunque algunas generalizaciones a funciones semicóncavas probablemente se realizan en Mas-Collel.
Lo que los economistas generalmente tienden a pasar por alto, pero, en mi humilde opinión, se beneficiarían, son aspectos del análisis multivariado (incluidos los modelos de variables latentes como una forma de lidiar con los errores de medición y los poderes múltiples ... los estadísticos también son ajenos a estos modelos) , diagnóstico de regresión (todas estas distancias de Cook, 'Cp, DFBETA, etc.), análisis de datos faltantes (la identificación parcial de Manski es seguramente elegante, pero el desglose MCAR / MAR / NMAR convencional y la imputación múltiple son más útiles), y estadísticas de encuestas. La econometría ha recibido muchas otras contribuciones de las estadísticas principales y las ha adoptado como metodología estándar, o las ha aprobado a corto plazo: los modelos ARMA de la década de 1960 probablemente se conocen mejor en econometría que en estadística, como algunos programas de posgrado. en estadística puede no ofrecer un curso de series de tiempo en estos días; los estimadores de contracción / regresión de cresta de los años 70 han ido y venido; El bootstrap de la década de 1980 es una reacción instintiva ante cualquier situación complicada, aunque los economistas deben ser más conscientes de las limitaciones del bootstrap.; La probabilidad empírica de la década de 1990 ha visto un mayor desarrollo de la metodología de los economistas teóricos que de los estadísticos teóricos; Los métodos bayesianos computacionales de la década de 2000 se están entreteniendo en econometría, pero creo que son demasiado paramétricos, demasiado basados en modelos, para ser compatibles con el paradigma de robustez que mencioné anteriormente. Es una decisión abierta si los economistas encontrarán algún uso del aprendizaje estadístico / bioinformática o material espacio-temporal que es extremadamente candente en las estadísticas modernas.