Supongamos que la muestra de datos es . Supongamos también que tenemos una función de covarianza k ( x 1 , x 2 ) y una media cero especificada para un proceso gussiano. La distribución para un nuevo punto x será gaussiana con media m ( x ) = k K - 1 yD=(X, y)={xi,yi=y(xi)}nortei = 1k ( x1, x2)X
m ( x ) = k K- 1y
y la varianza
El vector
k = { k ( x , x 1 ) , ... , k ( x , x N ) } es un vector de covarianzas, matriz
K = { k ( x i , x j ) } N iV( x )=k( x , x )- k K- 1kT.
k ={k( x , x1) , … , K ( x , xnorte) } es una matriz de covarianzas de muestra. En caso de que hagamos una predicción usando el valor medio de la distribución posterior para las
propiedades de interpolación demuestra. Realmente,
m(X)=KK-1y=y.
Pero, no es el caso si usamos regularización, es decir, incorporamos el término de ruido blanco. en este caso, la matriz de covarianza para la muestra tiene la forma
K+σI, pero para las covarianzas con valores de funciones reales tenemos la matriz de covarianza
K, y la media posterior es
m(X)=KK= { k ( xyo, xj) }nortei , j = 1m ( X) = KK- 1y = y .
K+ σyoK
Además, la regularización hace que el problema sea más estable computacionalmente.
m ( X) = K( K+ σyo)- 1y ≠ y .
Al elegir la varianza de ruido podemos seleccionar si queremos interpolación ( σ = 0 ) o si queremos manejar observaciones ruidosas ( σ es grande).σσ= 0σ
kO ( n )norte