Comparación del modelo bayesiano en la escuela secundaria


8

Enseño física a estudiantes de secundaria y me gustaría que mis estudiantes realicen una comparación rudimentaria del modelo bayesiano para obtener datos de sus experimentos. Descubrí una forma para que lo hagan (ver más abajo), pero no estoy seguro de que sea correcto. Agradecería mucho cualquier comentario al respecto (¡especialmente los comentarios negativos!), O sugerencias sobre cómo hacerlo mejor.

Me gustaría comparar una teoría lineal, con parámetros de pendiente a e interceptar b, a una hipótesis nula de una constante, es decir, pendiente a= 0. En ambos casos supongo ruido simétrico gaussiano.

Los estudiantes pueden obtener, usando Excel, las estimaciones de máxima verosimilitud para la pendiente y la intersección (a^ y b^) y sus errores da y db.

  1. Para lo anterior en la pendiente, considero un amplio gaussiano, centrado en el máximo = estimación de probabilidad (a^) y con una desviación estándar de diez veces eso. Mi razonamiento es que realmente espero que encuentren los parámetros de línea "correctos" al menos dentro de una magnitud, y en la práctica los encontrarán aún más cerca, por lo que si reemplazo la pendiente "correcta" con su MLE no cambiaré el números demasiado
  2. Para la probabilidad de la evidencia dada cualquier teoría lineal particular, considero la distribución gaussiana multivariada estándar, con una desviación estándar (σe) relacionado con la suma de los residuos al cuadrado.
  3. La probabilidad de la evidencia para la teoría lineal en general, es decir, la integral del anterior y la probabilidad anteriores, se estima que es el anterior y la probabilidad en el punto MLE, multiplicado por el error en la pendiente. da.
  4. Se supone que la probabilidad de la evidencia dada la hipótesis nula es otra gaussiana multivariada, que ahora usa la desviación estándar total (σT), basado en la diferencia del promedio Y.
  5. Esta es la parte de la que menos estoy seguro: calculo que el factor Bayes es la razón de las dos probabilidades anteriores (3 y 4 anteriores), lo que me permite llegar a la siguiente fórmula:

    B10=da(10|a^|2π)(σT/σe)Ne

¿Nos daría esto estimaciones razonables para el factor Bayes? Cualquier comentario es bienvenido.


Edité su fórmula usando MathJax para darle una apariencia más simplificada que sea más fácil de leer. Siéntase libre de editarlo si lo he traducido mal
Marqués de Carabas

¡Gracias! Sin embargo, los dos últimos términos (la razón s y la raíz cuadrada de e) deben estar fuera de la fracción o en el numerador.
PhysicsTeacher

1
Oh! ¡Es como LaTex! Yo corregí las fórmulas; gracias de nuevo.
PhysicsTeacher

Respuestas:


1

Primero permítanme decir que la prueba sensata de una hipótesis aguda comoa=0 requiere una distribución previa reflexiva para a, porque el factor Bayes depende críticamente de esto antes. Muchos bayesianos no probarán una hipótesis aguda, pero yo sí.

Antes de continuar, debo decirte que realmente no entiendo lo que dices que estás haciendo, por lo que puedo darte consejos que no estás buscando. Espero que puedas seguir la notación de mayo.

Deja que los datos sean n observaciones: y=((x1,y1),,(xn,yn)), donde (según el modelo más general e incluye la pendiente)

p(yi|a,b,σ2)=N(yi|b+axi,σ2).
(Estoy suprimiendo la variable independiente xi de la lista de argumentos condicionantes para la simplicidad de notación).
p(y|a,b,σ2)=i=1np(yi|a,b,σ2).
Dado un previo para (a,b,σ2), la distribución posterior es
p(a,b,σ2|y)=p(y|a,b,σ2)p(a,b,σ2)p(y),
donde la probabilidad de los datos de acuerdo con el modelo más general es
p(y)=p(y|a,b,σ2)p(a,b,σ)dσ2dbda=(p(y|a,b,σ2)p(b,σ2)dσ2db)p(a|b,σ2)da=p(y|a)p(a|b,σ2)da,
donde he usado . Tenga en cuenta que es la probabilidad (marginal) de y es el previo condicional para . Si el previo para es independiente de , entonces . Asumiré que es verdad.p(a,b,σ2)=p(a|b,σ2)p(b,σ2)p(y|a)ap(a|b,σ2)aa(b,σ2)p(a|b,σ2)=p(a)

Con estas expresiones, ahora podemos escribir el posterior marginal para : Ahora reorganizaremos esta expresión: Dado que esta expresión es verdadera para cada valor de , es cierto en particular para : Tenga en cuenta que el numerador en la fracción del lado izquierdo es la probabilidad de los datos según el modelo restringido (es decir, restringido aa

p(a|y)=p(y|a)p(a)p(y).
p(y|a)p(y)=p(a|y)p(a).
aa=0
p(y|a=0)p(y)=p(a=0|y)p(a=0).
a=0) Y, como ya se señaló, el denominador es la probabilidad de los datos de acuerdo con el modelo más general. Por lo tanto, el lado izquierdo es el factor Bayes a favor del modelo restringido en relación con el modelo más general.

La fracción de la derecha nos da una forma de evaluar el factor Bayes: dice dividir la densidad posterior evaluada en por la densidad previa evaluada en . (Por cierto, la "fórmula" se llama relación de densidad Savage-Dickey). Ahora es evidente por qué se requiere un previo reflexivo para . Si dejamos que la densidad previa para sea ​​muy incierta, la densidad previa será muy baja en todas partes, incluso en , pero la densidad posterior en no irá a cero y, en consecuencia, el factor de Bayes irá al infinito. En este caso, "basura" produce "basura".a=0a=0aaa=0a=0

Puede imaginar que si no sigue los pasos que he esbozado, no estará sujeto a este problema, pero estaría equivocado. La lógica que he presentado se aplica independientemente del "algoritmo" que aplique.

Pero los pasos proporcionan un algoritmo que puede ser útil. Supongamos que el previo para los parámetros viene dado por el "Jeffreys prior" Esto equivale a utilizar un previo incorrecto en los "parámetros molestos" . Esto está bien, pero dicho previo no sería apropiado por motivo por el que discutí anteriormente. Con esto antes, --- la probabilidad (marginal) de --- será proporcional a una distribución de Student , cuyos parámetros dependen de los datos . Esta distribución es un resumen completo de los datos, que pueden descartarse. Ahora debe elegir un previo adecuado y bien informado para

p(b,σ2)1/σ2.
(b,σ2)ap(y|a)atyta . Una vez hecho esto, puede calcular numéricamente cualquier lado de la ecuación "Savage-Dickey".

Espero que encuentres algo en lo que he dicho útil.


Hmm, aparentemente no puedo dejar comentarios largos o editarlos por mucho tiempo. Iré al grano: ¿cómo se supone que calcule el lado derecho? Mi prior es p(a)=110|a^|2πe(aa^)22(10|a^|2 Supongo que después de los datos es p(a|y)=1σa|2πe(aa^)22σa2 Entonces, ¿el factor Bayes es la razón de estos dos en a = 0?
PhysicsTeacher

No entiendo su previo ya que parece involucrar los datos a través de la estimación de máxima probabilidad.
mef

Sí, estamos jugando un poco de simulación aquí (¡ES PARA la escuela secundaria!). El real anterior es el mismo, excepto que se utiliza el valor dado en la literatura para la pendiente esperada en lugar dea^. Para dar una fórmula de forma cerrada que no dependa del experimento explícito, supongo que dado que es un amplio y previohatano estará lejos del valor de la literatura, podemos intercambiarlos sin cambiar mucho los números.
PhysicsTeacher

No entiendo la razón de sus suposiciones sobre lo anterior. Sin embargo, la respuesta a la pregunta en su primer comentario es "sí". Creo que encontrará que el factor de Bayes (BF) es bastante sensible a su elección de la varianza anterior. Si cambia de 10 a 20 (por ejemplo), sospecho que obtendrá un gran cambio en el BF. Y ese es el punto que estaba tratando de hacer.
mef

Muchas gracias mef! Todavía no entiendo si mi cálculo original es razonable, pero al menos ahora tengo un punto de comparación. Comprobaré la respuesta al cambio en el factor de 10 a 20, y al intercambio de literatura vs.a^valor.
PhysicsTeacher
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.