¿Las distribuciones de muestreo son legítimas para la inferencia?


15

Algunos bayesianos atacan la inferencia frecuentista afirmando que "no hay una distribución de muestreo única" porque depende de las intenciones del investigador (Kruschke, Aguinis y Joo, 2012, p. 733).

Por ejemplo, digamos que un investigador comienza la recolección de datos, pero su financiamiento se recortó inesperadamente después de 40 participantes. ¿Cómo se definirían aquí las distribuciones de muestreo (y los siguientes IC y valores p)? ¿Asumiríamos que cada muestra constituyente tiene N = 40? ¿O consistiría en muestras con diferentes N, con cada tamaño determinado por otras veces al azar que su financiación podría haberse reducido?

Las distribuciones nulas t, F, chi-cuadrado (etc.) que se encuentran en los libros de texto suponen que la N es fija y constante para todas las muestras constituyentes, pero esto puede no ser cierto en la práctica. Con cada procedimiento de detención diferente (p. Ej., Después de un cierto intervalo de tiempo o hasta que mi asistente se canse) parece haber una distribución de muestreo diferente, y el uso de estas distribuciones de N fijo 'probadas y verdaderas' es inapropiado.

¿Qué tan dañina es esta crítica a la legitimidad de los CI y los valores p frecuentes? ¿Hay refutaciones teóricas? Parece que al atacar el concepto de distribución de muestreo, todo el edificio de la inferencia frecuentista es tenue.

Cualquier referencia académica es muy apreciada.


1
La cita es para: Kruschke, JK, Aguinis, H. y Joo, H. (2012). Ha llegado el momento: métodos bayesianos para el análisis de datos en las ciencias de la organización. Pero Kruschke lo ha usado antes en: (2010) Análisis de datos bayesianos y (2010) Qué creer: Métodos bayesianos para el análisis de datos.
ATJ

Respuestas:


21

norte

norte

XnorteX¯kμ=0 0μ0 0L(0 0)L(X¯)mi-k2/ /2, por lo que el investigador puede establecer un límite de antemano mediante una elección adecuada de k. Solo un análisis frecuentista puede tener en cuenta la distribución de la razón de probabilidad bajo este esquema de muestreo bastante injusto. Véanse las respuestas de Kerridge (1963), "Límites para la frecuencia de las inferencias engañosas de Bayes", Ann. Matemáticas. Stat. , 34 , Cornfield (1966), "Ensayos secuenciales, análisis secuencial y el principio de probabilidad", The American Statistician , 20 , 2 y Kadane (1996), "Razonamiento a una conclusión inevitable", JASA , 91 , 435

Señalar la dependencia de la inferencia frecuentista de las intenciones de un investigador es una práctica excavación para las personas (si todavía las hay) que se suben de su parte sobre la "subjetividad" de la inferencia bayesiana. Personalmente, puedo vivir con eso; La realización de un procedimiento a lo largo de una larga serie de repeticiones siempre será algo más o menos nocional, lo que no resta valor a su utilidad ("una calibración de la probabilidad" fue cómo Cox describió los valores p) ) A partir de las fechas de las referencias, es posible que haya notado que estos problemas no son muy nuevos; Los intentos de resolverlos mediante una argumentación a priori han disminuido en gran medida (excepto en Internet, siempre atrasados, excepto en asuntos triviales) y

PD: Pensando agregar un contrapeso a Berger & Wolpert, me encontré con Cox y Mayo (2010), "Objetividad y condicionalidad en la inferencia frecuente" en Error e inferencia . Es muy probable que haya un elemento de ilusión en mi afirmación de que el debate se ha calmado, pero es sorprendente lo poco que se puede decir al respecto después de medio siglo más o menos. (De todos modos, esta es una defensa concisa y elocuente de las ideas frecuentistas).


1
+1 (hace mucho tiempo). Me pregunto si el razonamiento de Armitage puede adaptarse al conocido ejemplo de muestreo binomial vs neg-binomial; por ejemplo, observar la secuencia TTTTTH de arrojar monedas produce p = 0.03 o p = 0.1 dependiendo de la regla de detención. Por lo tanto, si consideramos ahora una nueva regla de parada, por ejemplo, "lanzando conservar hasta binomial p <0,05 y había por lo menos un H y al menos uno de T", entonces se vuelve más intuitiva que más bien debe no ignorar esta regla de parada para la inferencia (a pesar de violar el Principio de Probabilidad). ¿Esto tiene sentido?
ameba dice Reinstate Monica

4

La respuesta breve a su pregunta es: depende de a quién le pregunte ;-) Los bayesianos acérrimos declararán la victoria sobre, o al menos la paridad, con la metodología frecuentista. Frecuentes frecuentes se convertirán en "Esto no se puede responder". El otro 99% de los estadísticos utilizará cualquier método que se haya demostrado que es confiable en experimentos ininterrumpidos.

Sé que la sensibilidad de la distribución de muestreo a las intenciones del investigador puede ser problemática, y realmente no hay una buena solución para ese problema. Tanto los bayesianos como los frecuentistas deben usar un poco de subjetividad y juicio al decidir cómo formar una inferencia. Sin embargo, creo que está tomando un ejemplo de un área que generalmente es controvertida y coloca los problemas únicamente a los pies de la inferencia frecuentista. Los experimentos secuenciales y / o detenidos son ejemplos clásicos de la naturaleza subjetiva de la inferencia ... y para los cuales no hay una respuesta absolutamente objetiva y acordada.

¿Qué pasa con la inferencia regular, donde realmente recolectas la muestra que pretendías obtener? Aquí, creo que los frecuentistas tienen la ventaja, ya que los valores de CI y p están bien calibrados con sus propiedades de muestreo repetidas, mientras que la inferencia bayesiana conserva su naturaleza personal y subjetiva.

Si desea una exposición más teórica de la respuesta bayesiana, leería sobre "inferencia condicional" con investigadores clave Nancy Reid y Lehmann.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.