¿La regresión de ángulo mínimo mantiene las correlaciones monotónicamente decrecientes y atadas?


9

Estoy tratando de resolver un problema para la regresión de ángulo mínimo (LAR). Este es un problema 3.23 en la página 97 de Hastie et al., Elementos de aprendizaje estadístico, 2do. ed. (5ª impresión) .

Considere un problema de regresión con todas las variables y respuestas que tengan media cero y desviación estándar uno. Supongamos también que cada variable tiene una correlación absoluta idéntica con la respuesta:

1N|xj,y|=λ,j=1,...,p

Deje que sea ​​el coeficiente de mínimos cuadrados de en y deje que para .β^yXu(α)=αXβ^α[0,1]

Se me pide que demuestre que y estoy teniendo problemas con eso. Tenga en cuenta que esto básicamente puede decir que las correlaciones de cada con los residuos permanecen iguales en magnitud a medida que avanzamos hacia .

1N|xj,yu(α)|=(1α)λ,j=1,...,p
xju

Tampoco sé cómo demostrar que las correlaciones son iguales a:

λ(α)=(1α)(1α)2+α(2α)NRSSλ

Cualquier sugerencia sería muy apreciada!


2
@Belmont, ¿qué es ? ¿Podría proporcionar más contexto sobre su problema? El enlace al artículo con propiedades estándar de LAR, por ejemplo, ayudaría mucho. u(α)
mpiktas

@Belmont, esto parece un problema de Hastie, et al., Elementos de aprendizaje estadístico , 2do. ed. ¿Es esta tarea? Si es así, puede agregar esa etiqueta.
cardenal

@Belmont, ahora que @cardinal dio una respuesta completa, ¿puede especificar qué es realmente LAR, para referencia futura? A juzgar por la respuesta, esta es la manipulación estándar de productos de regresiones de mínimos cuadrados dadas algunas restricciones iniciales. No debe haber un nombre especial para ello sin una razón seria.
mpiktas

1
@mpiktas, es un algoritmo por etapas, por lo que cada vez que una variable ingresa o sale del modelo en la ruta de regularización, el tamaño (es decir, cardinalidad / dimensión) de aumenta o disminuye respectivamente y se utiliza una "nueva" estimación de LS basada en las variables actualmente "activas". En el caso del lazo, que es un problema de optimización convexa, el procedimiento consiste esencialmente en explotar una estructura especial en las condiciones KKT para obtener una solución muy eficiente. También hay generalizaciones que, por ejemplo, la regresión logística basado en IRLS y Heine-Borel (para probar la convergencia en ninguna finita de pasos..)β
cardenal

1
@Belmont -1, como compré recientemente el libro de Hastie, puedo confirmar que este es un ejercicio. Entonces, te estoy dando un gran -1, ya que ni siquiera logras dar todas las definiciones, ni siquiera estoy hablando de dar la referencia.
mpiktas

Respuestas:


21

Este es el problema 3.23 en la página 97 de Hastie et al., Elementos de aprendizaje estadístico , 2do. ed. (5ª impresión) .

La clave de este problema es una buena comprensión de los mínimos cuadrados ordinarios (es decir, la regresión lineal), particularmente la ortogonalidad de los valores ajustados y los residuos.

Lema de ortogonalidad : Sea la matriz de diseño , el vector de respuesta y los parámetros (verdaderos). Suponiendo que es de rango completo (que lo haremos en todo momento), las estimaciones de OLS de son . Los valores ajustados son . Entonces . Es decir, los valores ajustados son ortogonales a los residuos. Esto se debe a que .Xn×pyβXββ^=(XTX)1XTyy^=X(XTX)1XTyy^,yy^=y^T(yy^)=0XT(yy^)=XTyXTX(XTX)1XTy=XTyXTy=0

Ahora, vamos ser un vector columna de tal manera que es la ésima columna de . Las condiciones asumidas son:xjxjjX

  • 1Nxj,xj=1 para cada , ,j1Ny,y=1
  • 1Nxj,1p=1Ny,1p=0 donde denota un vector de unos de longitud , y1pp
  • 1N|xj,y|=λ para todo .j

Tenga en cuenta que, en particular , la última declaración del lema de ortogonalidad es idéntica a para todo .xj,yy^=0j


Las correlaciones están ligadas

Ahora, . Entonces, y el segundo término en el lado derecho es cero por el lema de ortogonalidad , entonces según lo deseado. El valor absoluto de las correlaciones son solo u(α)=αXβ^=αy^

xj,yu(a)=xj,(1α)y+αyαy^=(1α)xj,y+αxj,yy^,
1N|xj,yu(α)|=(1α)λ,
ρ^j(α)=1N|xj,yu(α)|1Nxj,xj1Nyu(α),yu(α)=(1α)λ1Nyu(α),yu(α)

Nota : El lado derecho anterior es independiente de y el numerador es la misma que la covarianza ya hemos asumido que todo el 's y así, en particular, sin sustracción de la media es necesario, se centran ( )jxjy

¿Cuál es el punto de? A medida que aumenta, el vector de respuesta se modifica de manera que avanza lentamente hacia la solución de mínimos cuadrados ( ¡restringida! ) Obtenida al incorporar solo los primeros parámetros en el modelo. Esto modifica simultáneamente los parámetros estimados, ya que son productos internos simples de los predictores con el vector de respuesta (modificado). Sin embargo, la modificación toma una forma especial. Mantiene la (magnitud de) las correlaciones entre los predictores y la respuesta modificada igual durante todo el proceso (aunque el valor de la correlación está cambiando). ¡Piensa en lo que esto está haciendo geométricamente y entenderás el nombre del procedimiento!αp


Forma explícita de la correlación (absoluta)

Centrémonos en el término en el denominador, ya que el numerador ya está en la forma requerida. Tenemos

yu(α),yu(α)=(1α)y+αyu(α),(1α)y+αyu(α).

Sustituyendo en y usando la linealidad del producto interno, obtenemosu(α)=αy^

yu(α),yu(α)=(1α)2y,y+2α(1α)y,yy^+α2yy^,yy^.

Observa eso

  • y,y=N por suposición,
  • y,yy^=yy^,yy^+y^,yy^=yy^,yy^ , aplicando el lema de ortogonalidad (una vez más) al segundo término en el medio; y,
  • yy^,yy^=RSS por definición.

Al poner todo esto junto, notarás que tenemos

ρ^j(α)=(1α)λ(1α)2+α(2α)NRSS=(1α)λ(1α)2(1RSSN)+1NRSS

Para concluir, y está claro que está disminuyendo monotónicamente en y como .1RSSN=1N(y,y,yy^,yy^)0ρ^j(α)αρ^j(α)0α1


Epílogo : concéntrate en las ideas aquí. Realmente solo hay uno. El lema de la ortogonalidad hace casi todo el trabajo por nosotros. El resto es solo álgebra, notación y la capacidad de poner en práctica estos dos últimos.


2
@ cardinal, +1. La respuesta es magnitudes mejor que la pregunta.
mpiktas

@cardinal, es posible que desee cambiar el enlace a Amazon o algún otro sitio. Creo que vincular al libro completo podría plantear algunos problemas de derechos de autor.
mpiktas

3
@mpiktas, no. Sin problemas de derechos de autor. Ese es el sitio web oficial del libro. Los autores obtuvieron permiso de Springer para hacer que el PDF esté disponible gratuitamente en línea. (Vea la nota a este efecto en el sitio.) Creo que obtuvieron la idea de Stephen Boyd y su texto de optimización convexa . Esperemos que tal tendencia se acelere en los próximos años. ¡Disfrutar!
cardenal

@ cardinal, ¡oh, muchas gracias! Eso es muy generoso de los autores.
mpiktas

@mpiktas, es de lejos el libro más popular de la serie Springer en estadísticas. Se ve bien en un iPad. Lo que me recuerda que también debería descargar el texto de Boyd. Salud.
cardenal
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.