Al hacer estadísticas frecuentas, hay una larga lista de grandes no-nos, como mirar los resultados de las pruebas estadísticas antes de decidir recopilar más datos. En general, me pregunto si hay una lista similar de no-nos para las metodologías involucradas en las estadísticas bayesianas, y específicamente si la siguiente es una de ellas.
Recientemente me di cuenta de que para algunos de los modelos que he estado ajustando, mi proceso ha sido primero ajustar el modelo con antecedentes informativos para ver si funciona o explotar, y luego debilitar los anteriores ya sea informativos o poco informativos y Vuelva a colocar el modelo.
Mi motivación para esto realmente tiene que ver con el hecho de que estoy escribiendo estos modelos en JAGS / Stan, y en mi opinión lo he tratado más como una tarea de programación que como estadística. Por lo tanto, hago una primera ejecución, manipulándola para que converja rápidamente mediante el uso de información previa, lo que facilita la detección de errores en el modelo que he escrito. Luego, después de depurar el modelo, lo vuelvo a instalar con antecedentes poco informativos o poco informativos.
Mi pregunta es si estoy rompiendo o no algunas reglas serias con este proceso. Por ejemplo, para que mis inferencias sean válidas y para evitar explotar los grados de libertad de los investigadores, ¿debo comprometerme con los antecedentes específicos antes de comenzar a ajustar algún modelo?