Aprendizaje de estadísticas bayesianas por primera vez; Como un ángulo para comprender MCMC, me preguntaba: ¿está haciendo algo que fundamentalmente no se puede hacer de otra manera, o simplemente está haciendo algo mucho más eficiente que las alternativas?
A modo de ilustración, supongamos que estamos tratando de calcular la probabilidad de nuestros parámetros dados los datos dado un modelo que calcula lo contrario, . Para calcular esto directamente con el teorema de Bayes, necesitamos el denominador como se señala aquí . Pero podríamos calcular eso por integración, digamos lo siguiente:P ( D | x , y , z ) P ( D )
p_d = 0.
for x in range(xmin,xmax,dx):
for y in range(ymin,ymax,dy):
for z in range(zmin,zmax,dz):
p_d_given_x_y_z = cdf(model(x,y,z),d)
p_d += p_d_given_x_y_z * dx * dy * dz
¿Funcionaría (aunque de manera muy ineficiente con un mayor número de variables) o hay algo más que podría hacer que este enfoque falle?