Sí. A diferencia de lo que dicen otras respuestas, los métodos de aprendizaje automático "típicos" como las redes neuronales (paramétricas) y no paramétricas pueden ayudar a crear mejores muestreadores MCMC.
El objetivo de MCMC es extraer muestras de una distribución objetivo (no normalizada) . Las muestras obtenidas se utilizan para aproximar y en su mayoría permiten calcular las expectativas de funciones bajo (es decir, integrales de alta dimensión) y, en particular, las propiedades de (como los momentos).f f fF( x )FFF
El muestreo generalmente requiere una gran cantidad de evaluaciones de , y posiblemente de su gradiente, para métodos como el Hamiltoniano Monte Carlo (HMC). Si es costoso de evaluar, o el gradiente no está disponible, a veces es posible construir una función sustituta menos costosa que puede ayudar a guiar el muestreo y se evalúa en lugar de (de una manera que aún conserva las propiedades de MCMC).f fFFF
Por ejemplo, un artículo seminal ( Rasmussen 2003 ) propone utilizar procesos gaussianos (una aproximación de función no paramétrica) para construir una aproximación a y realizar HMC en la función sustituta, con solo el paso de aceptación / rechazo de HMC basado en . Esto reduce el número de evaluaciones de la original y permite realizar MCMC en archivos PDF que de otro modo serían demasiado costosos de evaluar.f fIniciar sesiónFFF
La idea de usar sustitutos para acelerar MCMC se ha explorado mucho en los últimos años, esencialmente probando diferentes formas de construir la función sustituta y combinarla de manera eficiente / adaptativa con diferentes métodos MCMC (y de una manera que conserva la 'corrección' 'de muestreo MCMC). En relación con su pregunta, estos dos documentos muy recientes utilizan técnicas avanzadas de aprendizaje automático: redes aleatorias ( Zhang et al. 2015 ) o funciones de kernel exponenciales aprendidas adaptativamente ( Strathmann et al. 2015 ), para construir la función sustituta.
HMC no es la única forma de MCMC que puede beneficiarse de los sustitutos. Por ejemplo, Nishiara et al. (2014) construyen una aproximación de la densidad objetivo ajustando una distribución de Student multivariada al estado de múltiples cadenas de una muestra de conjunto, y la utilizan para realizar una forma generalizada de muestreo de corte elíptico .t
Estos son solo ejemplos. En general, se pueden utilizar varias técnicas de ML distintas (principalmente en el área de aproximación de funciones y estimación de densidad) para extraer información que podría mejorar la eficiencia de los muestreadores MCMC. Su utilidad real , por ejemplo, medida en número de "muestras independientes efectivas por segundo", está condicionada a que sea costosa o algo difícil de calcular; Además, muchos de estos métodos pueden requerir el ajuste de su propio conocimiento o conocimiento adicional, restringiendo su aplicabilidad.F
Referencias
Rasmussen, Carl Edward. "Procesos gaussianos para acelerar Monte Carlo híbrido para integrales bayesianas costosas". Bayesian Statistics 7. 2003.
Zhang, Cheng, Babak Shahbaba y Hongkai Zhao. "Aceleración hamiltoniana de Montecarlo utilizando funciones sustitutas con bases aleatorias". preimpresión arXiv arXiv: 1506.05555 (2015).
Strathmann, Heiko y col. "Montecarlo hamiltoniano libre de gradientes con familias exponenciales de kernel eficientes". Avances en los sistemas de procesamiento de información neuronal. 2015
Nishihara, Robert, Iain Murray y Ryan P. Adams. "MCMC paralelo con muestreo de corte elíptico generalizado". Journal of Machine Learning Research 15.1 (2014): 2087-2112.