Algoritmo de mínimos cuadrados regularizado recursivo (en línea)


12

¿Alguien puede señalarme en la dirección de un algoritmo en línea (recursivo) para la regularización de Tikhonov (mínimos cuadrados regularizados)?

En una configuración fuera de línea, calcularía usando mi conjunto de datos original donde se encuentra usando la validación cruzada n-fold. Se puede predecir un nuevo valor de y para una x dada usando y = x ^ T \ hat \ beta .β^=(XTX+λI)1XTYλx y = x T βyxy=xTβ^

En un entorno en línea, dibujo continuamente nuevos puntos de datos. ¿Cómo puedo actualizar β^ cuando extraigo nuevas muestras de datos adicionales sin hacer un recálculo completo de todo el conjunto de datos (original + nuevo)?


1
Sus mínimos cuadrados regularizados por Tikhonov se llaman más comúnmente Levenberg-Marquardt en círculos estadísticos, incluso cuando se aplican a problemas lineales puros (como aquí). Hay un artículo sobre Levenberg Marquardt en línea aquí . No sé si eso es de alguna ayuda.
Glen_b -Reinstala a Mónica el

Respuestas:


11

β^n=(XXT+λI)1i=0n1xiyi

Deje , luegoMn1=(XXT+λI)1

β^n+1=Mn+11(i=0n1xiyi+xnyn) , y

Mn+1Mn=xnxnT , podemos obtener

β^n+1=β^n+Mn+11xn(ynxnTβ^n)

De acuerdo con la fórmula de Woodbury , tenemos

Mn+11=Mn1Mn1xnxnTMn1(1+xnTMn1xn)

Como resultado,

β^n+1=β^n+Mn11+xnTMn1xnxn(ynxnTβ^n)

El promedio de Polyak indica que puede usar para aproximar con rangos de a . En su caso, puede intentar seleccionar el mejor para su recursión.M - 1 nηn=nα α0.51αMn11+xnTMn1xnα0.51α


Creo que también funciona si aplica un algoritmo de gradiente por lotes:

β^n+1=β^n+ηnni=0n1xi(yixiTβ^n)


¿Qué sucede si actualizo mi regresor cada vez con muestras de lotes de datos nuevos, donde cada lote sucesivo se extrae de una distribución ligeramente diferente? es decir, no IID. En este caso, me gustaría que el regresor tenga en cuenta los nuevos datos, pero que no afecte sus predicciones en la localidad de los datos antiguos (lotes anteriores). ¿Me puede indicar alguna literatura que pueda sentir útil?
rnoodle

Buena pregunta, pero lo siento, actualmente no puedo decir cuánto afectaría a su modelo si todavía está usando la fórmula de gradiente por lotes en la respuesta, o aproximando aplicando la forma de matriz directamente: eta ^ (- alpha) * X (Y-X 'beta_n) donde X, Y son sus nuevas muestras de lote
lennon310

hola, parece que el coeficiente de regularización no está involucrado en la fórmula de actualización recursiva? ¿O solo importa en la inicialización de la inversa de la matriz M?
Peng Zhao

4

Un punto que nadie ha abordado hasta ahora es que generalmente no tiene sentido mantener constante el parámetro de regularización medida que se agregan puntos de datos. La razón de esto es que normalmente crecerá linealmente con el número de puntos de datos, mientras que el término de regularización no lo hará. λλ β 2Xβy2λβ2


Ese es un punto interesante. Pero, ¿por qué "no tiene sentido" exactamente? Mantener constante seguramente es matemáticamente válido, por lo que "no tiene sentido" debe entenderse en algún tipo de contexto estadístico. ¿Pero qué contexto? Que sale mal ¿Habría algún tipo de solución fácil, como reemplazar las sumas de cuadrados por cuadrados medios? λ
whuber

Reemplazar la suma de cuadrados con una versión escalada (por ejemplo, el error cuadrático medio) tendría sentido, pero el simple uso de mínimos cuadrados recursivos no logrará eso.
Brian Borchers

En cuanto a lo que saldría mal, dependiendo de su elección de , obtendría una solución muy poco regularizada con una gran cantidad de puntos de datos o una solución muy sobrerregulada con una pequeña cantidad de puntos de datos. λ
Brian Borchers

Uno sospecharía eso, pero si se sintoniza inicialmente después de recibir puntos de datos y luego se agregan más puntos de datos, si las soluciones resultantes con más puntos de datos y la misma están sobre o poco regularizadas dependerían de esos nuevos puntos de datos. Esto puede ser analizado por suponiendo que los puntos de datos actúan como una muestra iid de una distribución multivariada, en cuyo caso aparece se debe establecer en en la etapa . Esto cambiaría las fórmulas de actualización, pero de una manera tan regular y simple que aún podría ser posible un cálculo eficiente. (+1)n λλnλN / n NλN/nN
whuber

3

Quizás algo como el descenso de gradiente estocástico podría funcionar aquí. Calcule usando su ecuación anterior en el conjunto de datos inicial, esa será su estimación inicial. Para cada nuevo punto de datos, puede realizar un paso de descenso de gradiente para actualizar su estimación de parámetros.β^


Desde entonces me di cuenta de que SGD (quizás minibatch) es el camino a seguir para problemas en línea como este, es decir, actualizar las aproximaciones de funciones.
rnoodle

1

En la regresión lineal, una posibilidad es actualizar la descomposición QR de directamente, como se explica aquí . Supongo que, a menos que desee volver a estimar después de agregar cada nuevo punto de datos, se puede hacer algo muy similar con la regresión de cresta.λXλ


0

Aquí hay un enfoque alternativo (y menos complejo) en comparación con el uso de la fórmula de Woodbury. Tenga en cuenta que y se pueden escribir como sumas . Dado que estamos calculando cosas en línea y no queremos la suma para hacer estallar, podemos utilizar alternativamente medios ( y ).XTXXTyX T X / n X T y / nXTX/nXTy/n

Si escribe e como:Xy

X=(x1TxnT),y=(y1yn),

podemos escribir las actualizaciones en línea a y (calculada hasta el fila -ésimo) como:XTX/nXTy/nt

At=(11t)At1+1txtxtT,

bt=(11t)bt1+1txtyt.

Su estimación en línea de se convierte enβ

β^t=(At+λI)1bt.

Tenga en cuenta que esto también ayuda a que la interpretación de permanezca constante a medida que agrega observaciones.λ

Este procedimiento es cómo https://github.com/joshday/OnlineStats.jl calcula estimaciones en línea de regresión lineal / cresta.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.