Maindonald describe un método secuencial basado en rotaciones de Givens . (Una rotación de Givens es una transformación ortogonal de dos vectores que pone a cero una entrada dada en uno de los vectores). En el paso anterior, ha descompuesto la matriz de diseño en una matriz triangular T a través de una transformación ortogonal Q para que Q X = ( T , 0 ) ′ . (Es rápido y fácil obtener los resultados de la regresión de una matriz triangular). Al unirse a una nueva fila v debajo de X , efectivamente extiende ( T , 0 )XTQQX=(T,0)′vX Por una fila distinta de cero, también, digamos t . La tarea es poner a cero esta fila mientras se mantienen las entradas en la posición de T diagonal. Una secuencia de rotaciones de Givens hace esto: la rotación con la primera fila de T ceros es el primer elemento de t ; luego la rotación con la segunda fila de T pone a cero el segundo elemento, y así sucesivamente. El efecto es premultiplicar Q mediante una serie de rotaciones, lo que no cambia su ortogonalidad.(T,0)′tTTtTQ
Cuando la matriz de diseño tiene columnas (que es el caso cuando retrocede en p variables más una constante), el número de rotaciones necesarias no excede p + 1 y cada rotación cambia dos vectores p + 1 . El almacenamiento necesario para T es O ( ( p + 1 ) 2 ) . Por lo tanto, este algoritmo tiene un costo computacional de O ( ( p + 1 ) 2 ) tanto en tiempo como en espacio.p+1pp+1p+1TO((p+1)2)O((p+1)2)
Un enfoque similar le permite determinar el efecto en la regresión de eliminar una fila. Maindonald da fórmulas; también lo hacen Belsley, Kuh y Welsh . Por lo tanto, si está buscando una ventana móvil para la regresión, puede retener los datos de la ventana dentro de un búfer circular, junto al nuevo dato y soltando el anterior con cada actualización. Esto duplica el tiempo de actualización y requiere almacenamiento adicional de para una ventana de ancho k . Parece que 1 / k sería el análogo del parámetro de influencia.O(k(p+1))k1 / k
Para la disminución exponencial, creo (especulativamente) que podría adaptar este enfoque a los mínimos cuadrados ponderados, dando a cada nuevo valor un peso mayor que 1. No debería ser necesario mantener un búfer de valores anteriores o eliminar datos antiguos.
Referencias
JH Maindonald, Cálculo estadístico. J. Wiley & Sons, 1984. Capítulo 4.
DA Belsley, E. Kuh, RE Welsch, Diagnóstico de regresión: identificación de datos influyentes y fuentes de colinealidad. J. Wiley & Sons, 1980.