Pregunta muy interesante, aquí está mi opinión al respecto.
Se trata de codificar información, luego girar la manivela bayesiana. Parece demasiado bueno para ser verdad, pero ambos son más difíciles de lo que parecen.
Empiezo haciendo la pregunta
¿Qué información se utiliza cuando nos preocupamos por las comparaciones múltiples?
Puedo pensar en algunos: el primero es el "dragado de datos": pruebe "todo" hasta que obtenga suficientes pases / fallas (creo que casi todas las personas capacitadas en estadísticas estarían expuestas a este problema). También tiene menos siniestro, pero esencialmente el mismo "Tengo tantas pruebas que ejecutar, seguramente no todas pueden ser correctas".
Después de pensar en esto, una cosa que noto es que no sueles escuchar mucho sobre hipótesis específicas o comparaciones específicas. Se trata de la "colección" - esto desencadena mi pensamiento hacia la intercambiabilidad - las hipótesis que se comparan son "similares" entre sí de alguna manera. ¿Y cómo codifica la intercambiabilidad en el análisis bayesiano? - hiper-priors, modelos mixtos, efectos aleatorios, etc.
Pero la intercambiabilidad solo te lleva a una parte del camino. ¿Es todo intercambiable? ¿O tiene "escasez", como solo unos pocos coeficientes de regresión distintos de cero con un gran grupo de candidatos. Los modelos mixtos y los efectos aleatorios normalmente distribuidos no funcionan aquí. Se "atascan" entre el ruido de aplastamiento y dejan las señales intactas (p. Ej., En su ejemplo, mantengan iguales los parámetros "verdaderos" locationB y locationC, y establezcan el parámetro "verdadero" locationA arbitrariamente grande o pequeño, y vean fallar el modelo mixto lineal estándar). . Pero se puede arreglar, por ejemplo, con anteriores de "punta y losa" o anteriores de "herradura".
Por lo tanto, realmente se trata más de describir de qué tipo de hipótesis está hablando y obtener tantas características conocidas reflejadas en lo anterior y en la probabilidad. El enfoque de Andrew Gelman es solo una forma de manejar una amplia clase de comparaciones múltiples implícitamente. Al igual que los mínimos cuadrados y las distribuciones normales tienden a funcionar bien en la mayoría de los casos (pero no en todos).
En términos de cómo hace esto, se podría pensar en una persona razonando de la siguiente manera: el grupo A y el grupo B podrían tener la misma media: miré los datos y los medios están "cercanos". Por lo tanto, para obtener una mejor estimación para ambos, debería agrupar los datos, ya que mi pensamiento inicial fue que tienen la misma media. - Si no son lo mismo, los datos proporcionan evidencia de que están "cerca", por lo que agrupar "un poco" no me perjudicará demasiado si mi hipótesis es incorrecta (todos los modelos son incorrectos, algunos son útiles)
Tenga en cuenta que todo lo anterior depende de la premisa inicial "podrían ser lo mismo". Quítelo y no hay justificación para la agrupación. Probablemente también pueda ver una forma de "distribución normal" de pensar en las pruebas. "Cero es más probable", "si no es cero, entonces próximo a cero es lo más probable", "los valores extremos son poco probables". Considere esta alternativa:
- el grupo A y el grupo B podrían ser iguales, pero también podrían ser drásticamente diferentes
Entonces el argumento sobre la agrupación "un poco" es una muy mala idea. Es mejor elegir la agrupación total o la agrupación cero. Mucho más parecido a un Cauchy, espiga y losa, tipo de situación (mucha masa alrededor de cero y mucha masa para valores extremos)
No es necesario abordar todas las comparaciones múltiples, porque el enfoque bayesiano está incorporando la información que nos lleva a preocuparnos por lo anterior y / o la probabilidad . En cierto sentido, es más un recordatorio para pensar adecuadamente sobre qué información está disponible para usted y asegurarse de haberla incluido en su análisis.