A menudo se dice que la regresión del proceso gaussiano corresponde (GPR) a la regresión lineal bayesiana con una (posiblemente) cantidad infinita de funciones básicas. Actualmente estoy tratando de entender esto en detalle para tener una intuición de qué tipo de modelos puedo expresar usando GPR.
- ¿Crees que este es un buen enfoque para tratar de entender el GPR?
En el libro Procesos gaussianos para el aprendizaje automático, Rasmussen y Williams muestran que el conjunto de procesos gaussianos descritos por el núcleo cuadrado exponencial parametrizado se puede describir de manera equivalente como una regresión bayesiana con una creencia previaw∼N(0,σ 2 p I)en los pesos y una cantidad infinita de funciones básicas de la formaϕc(x;l)=exp(-(x-c)2
- ¿Puede la parametrización de un núcleo diferenciable siempre traducirse en la parametrización de las funciones anteriores y básicas o hay núcleos diferenciables donde, por ejemplo, el número de funciones básicas depende de la configuración?
Mi siguiente pregunta es sobre el teorema inverso de mercer.
- ¿Qué conjuntos de funciones básicas conducen a núcleos válidos?
Y la extensión
- ¿Qué conjuntos de funciones base parametrizadas conducen a núcleos diferenciables válidos?