Estoy leyendo el libro GPML y en el Capítulo 2 (página 15) , me dice cómo hacer una regresión usando el Proceso Gaussiano (GP), pero me cuesta entender cómo funciona.
En la inferencia bayesiana para modelos paramétricos, primero elegimos un previo en los parámetros del modelo , es decir ; segundo, dados los datos de entrenamiento, calculamos la probabilidad ; y finalmente tenemos la parte posterior de como , que se utilizará en la distribución predictiva
Bueno, como se dice en el libro, GP no es paramétrico, y hasta donde yo entiendo, después de especificar la función media y la función de covarianza , tenemos una función GP over ,
¡SIN EMBARGO, eso no es lo que hace el libro! Quiero decir, después de especificar el previo, no calcula la probabilidad y la posterior, sino que va directamente a la predicción predictiva.
Pregunta:
1) ¿Por qué no calcular la probabilidad y posterior? ¿Solo porque GP no es paramétrico, entonces no hacemos eso?
2) Como se hace en el libro (página 15 ~ 16), deriva la distribución predictiva a través de la distribución conjunta del conjunto de datos de entrenamiento y conjunto de datos de prueba , que se denomina conjunto previo . Muy bien, esto me confunde mucho, ¿por qué juntarlos?
3) Vi algunos artículos llamar la variable latente , ¿por qué?