Fórmula AIC en Introducción al aprendizaje estadístico


9

Estoy un poco desconcertado por una fórmula presentada en "Introducción al aprendizaje estadístico" de Hastie. En el Capítulo 6, página 212 (sexta impresión, disponible aquí ), se indica que:

AIC=RSSnσ^2+2dn

Para modelos lineales con ruido gaussiano, es el número de predictores y es la estimación de la varianza del error. Sin embargo,dσ^

σ^2=RSS(n2)

Que se indica en el Capítulo 3, página 66.

Lo que implicaría:

AIC=(n2)n+2dn

Lo que no puede ser correcto. ¿Alguien puede señalar lo que estoy haciendo incorrectamente?


A menos que me pierda algo, no creo que el libro pueda ser correcto.
Glen_b: reinstala a Mónica el

Respuestas:


3

Creo que estás confundiendo las dos sumas residuales de cuadrados que tienes. Tiene un RSS para estimar el en la fórmula, este RSS es en cierto sentido independiente del número de parámetros, . Este debe estimarse utilizando todas sus covariables, lo que le proporciona una unidad de error de referencia . Debe llamar al RSS en la fórmula de AIC : , lo que significa que corresponde al modelo con parámetros ( puede haber muchos modelos con parámetros ). Entonces, el RSS en la fórmula se calcula para un modelo específico, mientras que el RSS paraσ^2pσ^2RSSpiippσ^2 es para el modelo completo.

Esto también se observa en la página anterior, donde se introduce para .σ^2Cp

Entonces, el RSS para la fórmula en AIC no es independiente de , se calcula para un modelo dado. Introducir a todo esto es solo tener una unidad de línea de base para el error, de modo que haya una comparación "justa" entre el número de parámetros y la reducción del error. Debe comparar el número de parámetros con algo que se escala con la magnitud del error.pσ^2

Si no escala el RSS por el error de la línea de base, puede ser que el RSS caiga mucho más que el número de variables introducidas y, por lo tanto, se vuelva más codicioso al agregar más variables. Si lo escala a alguna unidad, la comparación con el número de parámetros es independiente de la magnitud del error de la línea de base.

Esta no es la forma general de calcular AIC, pero esencialmente se reduce a algo similar a esto en los casos en que es posible obtener versiones más simples de la fórmula.


¿Sería capaz de proporcionar alguna referencia donde pueda leer más sobre el razonamiento detrás de la estimación de la varianza del error en estos modelos con un conjunto total de predictores disponibles en comparación con el RSS de algún subconjunto? Veo cómo su respuesta responde a esta pregunta, pero no estoy seguro de por qué es legítimo hacerlo en primer lugar.
Sue Doh Nimh

@SueDohNimh Estas diapositivas proporcionan un buen comienzo. Tenga en cuenta que la mejor estimación para es usar el modelo completo, introducido para . El AIC que tiene es aquel en el que se conoce , pero solo utiliza la mejor estimación que puede obtener. Estimandoσ2Cpσ2σ2Puede ser muy difícil. Esta discusión también es relevante. Esto también es relevante .
Gumeo

2
También debería leer el artículo original de Akaike, creo que es la mejor fuente, tiene más de 15K citas a partir de ahora. Aquí está , deberías poder encontrarlo en algún lugar en línea o acceder a él desde una universidad.
Gumeo

5

Lamentablemente, esta será una respuesta bastante insatisfactoria ...

En primer lugar, por lo general, para el cálculo de AIC, utilizará la estimación de probabilidad máxima de σ2lo cual sería parcial. Entonces eso se reduciría aσ2=RSSn y, en última instancia, el cálculo que haga se reduciría a 1+2dn. En segundo lugar, me referiría al artículo de Wikipedia sobre AIC, en particular en la sección de casos de equivalencia . Como puede ver, está claro que la mayoría de las derivaciones omiten una constanteC. Esta constante es irrelevante para fines de comparación de modelos, por lo que se omite. Es algo común ver derivaciones contradictorias de AIC debido exactamente a ese problema. Por ejemplo , el análisis estadístico multivariado aplicado de Johnson & Wichern , sexta edición, da a AIC como:nlog(RSSN)+2d(Capítulo 7.6), que claramente no equivale a la definición de James et al. Tu estas usando. Ninguno de los libros está equivocado per se . Solo personas que usan diferentes constantes. En el caso de James et al. Parece que el libro no alude a este punto. En otros libros, por ejemplo. El primer curso de Ravishanker y Dey en teoría de modelos lineales es aún más profundo a medida que los autores escriben:

AIC(p)=2l(y;X,β^ML,σ^ML2)+2p=Nlog(σ^ML2)/2N/2+2p(7.5.10)

que curiosamente tampoco puede ser concurrentemente cierto. Como escriben el capítulo 2.2 de Burnham y Anderson (1998) : " En el caso especial de la estimación de mínimos cuadrados (LS) con errores distribuidos normalmente, y aparte de una constante aditiva arbitraria, AIC puede expresarse como una función simple de la suma residual de cuadrados . "; B&A sugiere la misma variante AIC que utiliza J&W. Lo que te confunde es esa constante particular (y el hecho de que no estabas usando la estimación de ML para los residuos). Al observar el Reconocimiento de patrones y el aprendizaje automático de M. Bishop (2006) , encuentro una definición aún más contradictoria como:

AIC=l(D|wML)M(1.73)

lo cual es gracioso porque no solo omite el multiplicador del documento original, sino que también deja caer las señales para que pueda usar la selección basada en AIC como un problema de maximización ...

Yo recomendaría seguir con la antigua definición 2log(L)+2psi quieres hacer derivaciones teóricas. Este es el que Akaike afirma en su artículo original. Todas las otras fórmulas intermedias tienden a ser desordenadas y / o hacen algunas suposiciones implícitas. Si te sirve de consuelo, "no hiciste nada malo".


Ah! Bueno, eso sí que es un poco anticlimático, pero gracias. Sin embargo, por implicación, el AIC de Hastie aumenta linealmente en d y no es una función de la suma de los residuos al cuadrado. Las otras definiciones que proporcionó al menos varían con los errores del conjunto de entrenamiento, mientras que el AIC de Hastie implicaría que el modelo óptimo sería uno con 0 predictores. ¿Hay alguna manera de casar eso?
Sue Doh Nimh

1
Lo siento, no sé por qué dan esa fórmula. Por lo general hay unloginvolucrado en alguna parte. En el texto no trabajan mucho alrededor de AIC y se centran en Mallow'sCpasí que no me sorprendería si hicieran algunos supuestos simplificadores. En general, ese capítulo parece usar convenciones un poco extrañas. Casarlo parece equivaler a dejar caer los logaritmos más o menos. También parecen favorecer un1Nmultiplicador; Sospecho que esto se hace para hacer algo más similar aCp. Por cierto, es el libro de James . Hastie es un académico increíble pero es el tercer autor.
usεr11852

Llegué a las mismas conclusiones que usted, leyendo el famoso libro de Hastie / Tibshirani "Los elementos del aprendizaje estadístico" (p. 230-233), donde las definiciones de AIC / BIC son muy similares a las definiciones dadas en "Introducción a la estadística aprendiendo en R ". Entonces, Hastie es un académico increíble, pero no es tan bueno para definir AIC / BIC =).
Rodvi
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.