¿Tiene que adherirse al principio de probabilidad de ser bayesiano?


14

Esta pregunta se deriva de la pregunta: ¿ cuándo (si alguna vez) es un enfoque frecuentista sustancialmente mejor que un bayesiano?

Como publiqué en mi solución a esa pregunta, en mi opinión, si usted es un frecuentista, no tiene que creer / adherirse al principio de probabilidad, ya que a menudo los métodos frecuentados por el tiempo lo violarán. Sin embargo, y esto generalmente se da por supuesto que los anteriores son apropiados, los métodos bayesianos nunca violan el principio de probabilidad.

Entonces, decir que usted es bayesiano, ¿eso confirma su creencia o acuerdo en el principio de probabilidad, o es el argumento de que ser bayesiano tiene la buena consecuencia de que el principio de probabilidad no se viola?


44
No, ver a los Jeffreys antes. Los métodos bayesianos pueden violar el principio de probabilidad (fuerte).
Scortchi - Restablece a Monica

66
Sí, de hecho, los antecedentes de Jeffreys y también las soluciones que usan los datos varias veces como predicciones posteriores violan el principio de probabilidad, pero aún pueden considerarse bayesianos ...
Xi'an

1
No necesariamente. Y no estoy seguro de qué diferencia hace.
Scortchi - Restablece a Monica

2
Compare aquellos para el binomio y el binomio negativo.
Scortchi - Restablece a Monica

Respuestas:


13

Al usar el Teorema de Bayes para calcular las probabilidades posteriores que constituyen la inferencia sobre los parámetros del modelo, el principio de probabilidad débil se adhiere automáticamente a:

posteriorprior×lyokmilyohoore

Sin embargo, en algún enfoque bayesiano objetivo, el esquema de muestreo determina la elección de prior, siendo la motivación que no es informativa prior debería maximizar la divergencia entre las distribuciones anteriores y posteriores, permitiendo que los datos tengan tanta influencia como sea posible. Por lo tanto, violan el fuerte principio de probabilidad.

Los antecedentes de Jeffreys, por ejemplo, son proporcionales a la raíz cuadrada del determinante de la información de Fisher, una expectativa sobre el espacio muestral. Considere la inferencia sobre el parámetro de probabilidad de los ensayos de Bernoulli bajo muestreo binomial y binomial negativo. Los anteriores de Jeffreys sonπ

Prnortesi(π)π-1(1-π)-12Prsiyonorte(π)π-12(1-π)-12

Xnorte

Prnortesi(πX,norte)simitun(X,norte-X+12)Prsiyonorte(πX,norte)simitun(X+12,norte-X+12)

Entonces, observar que 1 éxito de 10 ensayos conduciría a distribuciones posteriores bastante diferentes bajo los dos esquemas de muestreo:

ingrese la descripción de la imagen aquí

Aunque seguir tales reglas para derivar antecedentes no informativos a veces puede dejarlo con antecedentes inadecuados, eso en sí mismo no es la raíz de la violación del principio de probabilidad que conlleva la práctica. Una aproximación a los Jeffreys anteriores,π-1+C(1-π)-1/ /2, dónde 0 0<C1, es bastante apropiado y hace una diferencia insignificante en la parte posterior.

También puede considerar la verificación del modelo, o hacer cualquier cosa como resultado de sus controles, como contrario al principio de probabilidad débil; un caso flagrante de usar la parte auxiliar de los datos.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.