Muestra grande asintótica / teoría - ¿Por qué preocuparse?


13

Espero que esta pregunta no se marque "como demasiado general" y espero que se inicie una discusión que beneficie a todos.

En estadística, pasamos mucho tiempo aprendiendo grandes teorías de muestra. Estamos profundamente interesados ​​en evaluar las propiedades asintóticas de nuestros estimadores, incluso si son asintóticamente insesgadas, asintóticamente eficientes, su distribución asintótica, etc. La palabra asintótica está fuertemente ligada con la suposición de que .n

En realidad, sin embargo, siempre tratamos con finito . Mis preguntas son:n

1) ¿qué queremos decir con muestra grande? ¿Cómo podemos distinguir entre muestras pequeñas y grandes?

2) Cuando decimos , ¿queremos decir literalmente que debería ir a ?nn

ex para la distribución binomial, necesita aproximadamente n = 30 para converger a la distribución normal bajo CLT. ¿Deberíamos tener o en este caso por queremos decir 30 o más ?!X¯n

3) Supongamos que tenemos una muestra finita y supongamos que sabemos todo sobre el comportamiento asintótico de nuestros estimadores. ¿Y qué? supongamos que nuestros estimadores son asintóticamente insesgados, entonces ¿tenemos una estimación imparcial para nuestro parámetro de interés en nuestra muestra finita o significa que si tuviéramos , entonces tendríamos uno imparcial?n

Como puede ver en las preguntas anteriores, estoy tratando de entender la filosofía detrás de "Muestras Asintóticas Grandes" y saber por qué nos importa. Necesito tener algunas intuiciones para los teoremas que estoy aprendiendo.


55
El comportamiento de muestras grandes es una forma de mostrar que un estimador dado funciona, o lo que sea, en el límite de datos infinitos. Tiene razón en que no necesariamente nos dice nada acerca de cuán bueno es un estimador en la práctica, pero es un primer paso: es poco probable que desee utilizar un estimador que no sea asintóticamente consistente (o lo que sea). La ventaja del análisis asintótico es que a menudo es más fácil de entender que uno de muestra finita.
Dougal

Debería comenzar a leer sobre asintóticos de orden superior, ya que aparentemente solo está familiarizado con la normalidad asintótica de primer orden y tal; con eso, todavía no sabes todo sobre el comportamiento asintótico. Es como decir: "Sé que ; ¿por qué todos dicen que el seno es periódico?". sinx=x
StasK

1
n>30p=0.001n=30nmin(p,1p)>15

Respuestas:


6

Mejor tarde que nunca. Permítanme enumerar primero tres razones (creo que importantes) por las que nos centramos en la imparcialidad asintótica (consistencia) de los estimadores.

a) La consistencia es un criterio mínimo. Si un estimador no calcula correctamente incluso con muchos datos, ¿de qué sirve? Esta es la justificación dada en Wooldridge: Econometría introductoria.

b) Las propiedades de la muestra finita son mucho más difíciles de probar (o más bien, las declaraciones asintóticas son más fáciles). Actualmente estoy investigando un poco, y cada vez que puede confiar en herramientas de muestra grandes, las cosas se vuelven mucho más fáciles. Las leyes de grandes números, los teoremas de convergencia de martingalas, etc. son buenas herramientas para obtener resultados asintóticos, pero no ayudan con muestras finitas. Creo que algo en este sentido se menciona en Hayashi (2000): Econometría.

c) Si los estimadores están sesgados para muestras pequeñas, uno puede potencialmente corregir o al menos mejorar con las llamadas correcciones de muestra pequeña. Estos a menudo son complicados teóricamente (para demostrar que mejoran en el estimador sin la corrección). Además, la mayoría de las personas está de acuerdo con depender de muestras grandes, por lo que las correcciones de muestras pequeñas a menudo no se implementan en el software de estadísticas estándar, porque solo unas pocas personas las requieren (aquellas que no pueden obtener más datos y se preocupan por la imparcialidad). Por lo tanto, existen ciertas barreras para usar esas correcciones poco comunes.

En sus preguntas ¿Qué queremos decir con "muestra grande"? Esto depende en gran medida del contexto, y para herramientas específicas se puede responder mediante simulación. Es decir, genera datos artificialmente y ve cómo, por ejemplo, la tasa de rechazo se comporta en función del tamaño de la muestra, o el sesgo se comporta en función del tamaño de la muestra. Aquí hay un ejemplo específico , donde los autores ven cuántos clústeres se necesitan para que los errores estándar agrupados OLS, los errores estándar de arranque, etc., funcionen bien. Algunos teóricos también tienen declaraciones sobre la tasa de convergencia, pero a efectos prácticos las simulaciones parecen ser más informativas.

n

En la pregunta 3: generalmente, la cuestión de la imparcialidad (para todos los tamaños de muestra) y la consistencia (imparcialidad para muestras grandes) se considera por separado. Un estimador puede ser sesgado, pero consistente, en cuyo caso, de hecho, solo las estimaciones de muestra grandes son insesgadas. Pero también hay estimadores que son imparciales y consistentes, que son teóricamente aplicables para cualquier tamaño de muestra. ( Un estimador también puede ser imparcial pero inconsistente por razones técnicas ) .

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.