Hacer un previo bayesiano a partir de un resultado frecuentista


13

¿Cómo se debe convertir un resultado frecuentista en un previo bayesiano?

Considere el siguiente escenario bastante genérico: se realizó un experimento en el pasado y se midió un resultado en algún parámetro . El análisis se realizó con una metodología frecuentista. Un intervalo de confianza para φ se da en los resultados.ϕϕ

Ahora estoy realizando un nuevo experimento donde quiero medir algunos otros parámetros, digamos y ϕ . Mi experimento es diferente al estudio anterior, no se realiza con la misma metodología. Me gustaría hacer un análisis bayesiano, por lo que tendré que colocar prioridades en θ y ϕ .θϕθϕ

No se han realizado mediciones previas de , por lo que coloco un no informativo (por ejemplo, su uniforme) antes. θ

Como se mencionó, hay un resultado previo para , dado como un intervalo de confianza. Para usar ese resultado en mi análisis actual, necesitaría traducir el resultado frecuente anterior en un previo informativo para mi análisis. ϕ

Una opción que no está disponible en este escenario inventado es repetir el análisis anterior que condujo a la medición de manera bayesiana. Si pudiera hacer esto, ϕ tendría un posterior del experimento anterior que luego usaría como mi anterior, y no habría ningún problema.ϕ ϕ

¿Cómo debo traducir el IC frecuenta en una distribución previa bayesiana para mi análisis? O, en otras palabras, ¿cómo podría traducir su resultado más frecuente en en un posterior en ϕ que luego usaría como previo en mi análisis?ϕϕ

Cualquier información o referencia que discuta este tipo de problema es bienvenida.


¿Distribución anterior o posterior?
Tim

editado para mayor claridad, mejor?
bill_e

¿Puedes tener un uniforme de -infinito a + infinito
Mdewey

No estoy seguro de qué tiene que ver esto con el metanálisis. ¿Puedes aclarar
Mdewey

3
Estás buscando priors a juego, estilo Welch y Peers. Eche un vistazo a esta revisión: projecteuclid.org/euclid.lnms/1215091929
Zen

Respuestas:


3

Versión corta: tome un gaussiano centrado en la estimación anterior, con estándar. dev. igual al CI.

Versión larga: Let es el verdadero valor del parámetro, y dejar que φ la estimación de que usted tiene. Suponga un a priori uniforme previo P ( ϕ ) = c t . ¿Quieres saber la distribución de φ 0 , dado que una estimación φ ya se ha obtenido:ϕ0ϕ^P(ϕ)=ctϕ0ϕ^

Ahora la única dependencia deφ0se encuentra en el términoP( φ |phi0), el resto es una constante de normalización. Suponiendo que el φ es un estimador de máxima verosimilitud (o algún otro estimador consistente), podemos utilizar los siguientes hechos:

P(ϕ0|ϕ^)=P(ϕ^|ϕ0)P(ϕ0)P(ϕ^)=P(ϕ^|ϕ0)ctP(ϕ^)
ϕ0P(ϕ^|ϕ0)ϕ^
  1. A medida que aumenta el número de observaciones, el MLE es asintóticamente gaussiano,
  2. Es asintóticamente imparcial (centrado en el valor verdadero ),ϕ0
  3. Fluctúa alrededor de con una varianza igual a la información inversa de Fisher de las observaciones anteriores, y eso es lo que habría utilizado como CI (cuadrado).ϕ0

Otra forma de decirlo: la parte posterior bayesiana y la distribución de un estimador consistente y eficiente se vuelven asintóticamente iguales.


Debo agregar que esta solución es para 68% CI, que es 1 sigma. Si sus intervalos de confianza son del 95%, está en dos sigmas, por lo que debe dividir el IC por 2, si están en 99.7%, entonces son 3 sigmas, por lo que debe dividir por 3. en.wikipedia.org/wiki/ 68% E2% 80% 9395% E2% 80% 9399.7_rule
Alex Monras

Debía comentar exactamente lo que hay en tu comentario :-) Quizás deberías agregar eso a tu respuesta. Me gustaría ...
Rolazaro Azeveires

1

ttσ2S2(np)/σ21/σ2

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.