¿Mi descripción de la distancia de Mahalanobis en la explicación de abajo a arriba de la distancia de Mahalanobis? incluye dos resultados clave:
Por definición, no cambia cuando los regresores se desplazan uniformemente.
La distancia al cuadrado de Mahalanobis entre los vectores e viene dada por donde es la covarianza de los datos.xyD2(x,y)=(x−y)′Σ−1(x−y)
Σ
(1) nos permite asumir que los medios de los regresores son todos cero. Queda por calcular . Sin embargo, para que la afirmación sea cierta, necesitamos agregar una suposición más:hi
El modelo debe incluir una intercepción.
Teniendo esto en cuenta, deje que haya regresores datos, escribiendo el valor del regresor para la observación como . Deje el vector columna de estos valores para regresor escribirse y el vector fila de estos valores para la observación escribirse . Entonces la matriz modelo esk≥0njixijnjx,jkixi
X=⎛⎝⎜⎜⎜⎜11⋮1x11x21⋮xn1⋯⋯⋮⋯x1kx2k⋮xnk⎞⎠⎟⎟⎟⎟
y, por definición, la matriz del sombrero es
H=X(X′X)−1X′,
de donde la entrada a lo largo de la diagonal esi
hi=hii=(1;xi)(X′X)−1(1;xi)′.(1)
No tiene nada más que resolver esa matriz inversa inversa, pero en virtud del primer resultado clave, es fácil, especialmente cuando lo escribimos en forma de matriz de bloque:
X′X=n(100′C)
donde y0=(0,0,…,0)′
Cjk=1n∑i=1nxijxik=n−1nCov(xj,xk)=n−1nΣjk.
(He escrito para la matriz de covarianza de muestra de los regresores). Debido a que esta es una diagonal de bloque, su inverso se puede encontrar simplemente invirtiendo los bloques:Σ
(X′X)−1=1n(100′C−1)=(1n00′1n−1Σ−1).
De la definición obtenemos(1)
hi=(1;xi)(1n00′1n−1Σ−1)(1;xi)′=1n+1n−1xiΣ−1x′i=1n+1n−1D2(xi,0).
Resolviendo para la longitud cuadrada de Mahalanobis produceD2i=D2(xi,0)
D2i=(n−1)(hi−1n),
QED .
Mirando hacia atrás, es posible distinguir el término aditivo a la presencia de una intercepción, que introdujo la columna de unos en la matriz de modelo . El término multiplicativo apareció después de suponer que la distancia de Mahalanobis se calcularía utilizando la estimación de covarianza de muestra (que divide las sumas de cuadrados y productos por ) en lugar de la matriz de covarianza de los datos (que divide la suma de cuadrados y productos por ).1/nXn−1n−1n
El valor principal de este análisis es el de impartir una interpretación geométrica de la palanca, que mide la cantidad de un cambio unitario en la respuesta a la observación va a cambiar el valor ajustado en el que la observación: observaciones de gran influencia son a grandes distancias de Mahalanobis desde el centroide de los regresores, exactamente como una palanca mecánicamente eficiente opera a una gran distancia de su punto de apoyo.i
Código R para mostrar que la relación tiene:
x <- mtcars
# Compute Mahalanobis distances
h <- hat(x, intercept = TRUE); names(h) <- rownames(mtcars)
M <- mahalanobis(x, colMeans(x), cov(x))
# Compute D^2 of the question
n <- nrow(x); D2 <- (n-1)*(h - 1/n)
# Compare.
all.equal(M, D2) # TRUE
print(signif(cbind(M, D2), 3))