Estoy leyendo esta preimpresión en papel , y tengo dificultades para seguir su derivación de las ecuaciones para la regresión del proceso gaussiano. Utilizan la configuración y la notación de Rasmussen y Williams . Por lo tanto, se supone un aditivo, de media cero, estacionario y normalmente distribuido con varianza :
Se supone un GP anterior con media cero para , lo que significa que , es un vector gaussiano con media 0 y matriz de covarianza
De ahora en adelante, suponemos que se conocen hiperparámetros. Entonces la ecuación (4) del artículo es obvia:
Aquí vienen las dudas:
Ecuación (5):
, pero supongo que E [ y | f ] = f ≠ 0 porque cuando condiciono f , entonces dondees un vector constante y solo es al azar ¿Correcto?c ϵ
De todos modos, es la ecuación (6) que es más oscura para mí:
Esa no es la forma habitual del teorema de Bayes. El teorema de Bayes sería
Entiendo por qué las dos ecuaciones son las mismas: intuitivamente, el vector de respuesta depende solo del vector latente correspondiente , condicionándose así a o a debería conducir a la misma distribución. Sin embargo, esto es una intuición, no una prueba. ¿Puedes ayudarme a mostrar por qué?f f ( f , f ∗ )