Quiero implementar una regresión incremental del proceso gaussiano usando una ventana deslizante sobre los puntos de datos que llega uno por uno a través de una secuencia.
Deje denotar la dimensionalidad del espacio de entrada. Entonces, cada punto de datos x i tiene d número de elementos.
Sea el tamaño de la ventana deslizante.
Para hacer predicciones, necesito calcular el inverso de la matriz de gramo , donde K i j = k ( x i , x j ) yk es el núcleo exponencial cuadrado.
Para evitar que K se agrande con cada nuevo punto de datos, pensé que podría eliminar el punto de datos más antiguo antes de agregar nuevos puntos y así evitaré que el gramo crezca. Por ejemplo, sea donde Σ es la covarianza de los pesos y φ es la función de mapeo implícito que implica el cuadrado exponencial kernel.
Ahora dejemos que ] y X n e w = [ x t - n + 2 | . . . El | x t | x t + 1 ] donde x 's son d por matrices de 1 columna.
Necesito una manera eficaz de encontrar el potencialmente usando K . Esto no parece ser el inverso de un problema de matriz actualizado de rango 1 que puede tratarse eficientemente con la fórmula de Sherman-Morrison.