¿Por qué los métodos de regresión de mínimos cuadrados y máxima verosimilitud no son equivalentes cuando los errores no se distribuyen normalmente?


11

El título lo dice todo. Entiendo que los mínimos cuadrados y la máxima verosimilitud darán el mismo resultado para los coeficientes de regresión si los errores del modelo se distribuyen normalmente. Pero, ¿qué sucede si los errores no se distribuyen normalmente? ¿Por qué los dos métodos ya no son equivalentes?


¿Te refieres a (a) usar MLE cuando no se cumple el supuesto de normalidad, o (b) usar la función de probabilidad no gaussiana?
Tim

(a), cuando no se cumple el supuesto de normalidad
Shuklaswag

Incluso cuando no se cumple el supuesto (es decir, los valores observados no están distribuidos en Gauss) ... si calcula el MLE con el uso de la función de probabilidad Gaussiana, entonces hace lo mismo que la optimización de mínimos cuadrados. Los métodos de optimización son matemáticamente equivalentes e independientes de si la suposición de normalidad era correcta o no.
Sextus Empiricus

Incluso con distribuciones normales, los mínimos cuadrados imponen una varianza fija.
CodesInChaos

Consulte también esta pregunta relacionada: stats.stackexchange.com/questions/173621/…
kjetil b halvorsen

Respuestas:


16

Respuesta corta

La densidad de probabilidad de una variable distribuida gaussiana multivariada , con media está relacionada con el cuadrado del euclídeo distancia entre la media y la variable ( ), o en otras palabras, la suma de los cuadrados.x=(x1,x2,...,xn)μ=(μ1,μ2,...,μn)|μx|22


Respuesta larga

Si multiplica múltiples distribuciones gaussianas para sus errores, donde asume desviaciones iguales, entonces obtiene una suma de cuadrados.n

L(μj,xij)=P(xij|μj)=i=1n12πσ2exp[(xijμi)22σ2]=(12πσ2)nexp[i=1n(xijμi)22σ2]

o en la forma logarítmica conveniente:

log(L(μj,xij))=nlog(12πσ2)12σ2i=1n(xijμj)2

Entonces, optimizar la para minimizar la suma de los cuadrados es igual a maximizar la probabilidad (log) (es decir, el producto de múltiples distribuciones gaussianas o la distribución gaussiana multivariada).μ

Es este cuadrado anidado de la diferencia dentro de la estructura exponencial, , que otras distribuciones no tienen.(μx)exp[(xiμ)2]


Compare, por ejemplo, con el caso de las distribuciones de Poisson

log(L)=log(μjxijxij!exp[μj])=μjlog(xij!)+log(μj)xij

que tiene un máximo cuando se minimiza lo siguiente:

μjlog(μj)xij

que es una bestia diferente


Además (historia)

La historia de la distribución normal (ignorando que deMoivre llega a esta distribución como una aproximación a la distribución binomial) es en realidad como el descubrimiento de la distribución que hace que el MLE corresponda al método de mínimos cuadrados (en lugar de que el método de mínimos cuadrados sea un método que puede expresar el MLE de la distribución normal, primero vino el método de mínimos cuadrados, segundo vino la distribución gaussiana)

Tenga en cuenta que a Gauss, al conectar el 'método de máxima verosimilitud' con el 'método de mínimos cuadrados', se le ocurrió la 'distribución gaussiana', , como la única distribución de errores que nos lleva a Haga esta conexión entre los dos métodos.ex2

De la traducción de Charles Henry Davis (Teoría del movimiento de los cuerpos celestes que se mueven alrededor del sol en secciones cónicas. Una traducción del "Motivo Theoria" de Gauss, con un apéndice) ...

Gauss define:

Por consiguiente, la probabilidad de ser asignada a cada error se expresará mediante una función de que denotaremos por .ΔΔψΔ

(Cursiva hecha por mí)

Y continúa ( en la sección 177 pp. 258 ):

... de donde se deduce fácilmente que debe ser una cantidad constante. que denotaremos por . Por lo tanto, tenemos denota la base de los logaritmos hiperbólicos por y suponiendoψΔΔk

log ψΔ=12kΔΔ+Constant
ψΔ=xe12kΔΔ
e
Constant=logx

terminando (después de la normalización y realizando ) enk<0

ψΔ=hπehhΔΔ


Escrito por StackExchangeStrike


¿Recuerdas de dónde obtuviste este conocimiento? ¿Te importaría agregar la fuente a tu publicación? (Me está costando encontrar un libro de texto que explique esto bien)
Joooeey,

@Joooeey He agregado el título de la fuente para las citas traducidas de Gauss, así como un enlace a una de las muchas fuentes en línea. Este texto original es pesado, pero debe encontrar tratados más ligeros en cualquier descripción de la historia de la distribución normal.
Sextus Empiricus

Las funciones de probabilidad están apareciendo en muchos lugares. Si busca fuentes de donde obtuve este 'conocimiento', supongo que podría decir el artículo de Pearson de 1900 sobre la prueba de chi-cuadrado donde la distribución normal multivariada se trata geométricamente. Fisher también usó representaciones geométricas varias veces (hay, por ejemplo, este artículo en los años 20, sobre la eficiencia de las estimaciones, donde compara el error cuadrático medio y el error absoluto medio y donde habla de superficies en un hiperespacio).
Sextus Empiricus

@Joooeey He hecho una referencia a ese artículo de Fisher antes aquí . Y mi respuesta aquí usa un punto de vista geométrico para derivar una propiedad de la distribución t que también se relaciona con Fisher (creo que el artículo donde prueba la distribución t de Gosset o tal vez un artículo un poco posterior).
Sextus Empiricus

5

Porque el MLE se deriva de la suposición de residuos distribuidos normalmente.

Tenga en cuenta que

minβ  Xβy2

No tiene un significado probabilístico : solo encuentra el que minimiza la función de pérdida al cuadrado. Todo es determinista y no hay componentes aleatorios allí.β

Donde el concepto de probabilidad y probabilidad viene, suponemos

y=Xβ+ϵ

Donde estamos considerando como una variable aleatoria, y se distribuye normalmente.ϵyϵ


@Matthew Drury, ¿por qué cambiar la notación matricial y agregar el signo de suma?
Haitao Du

Pensé que sería claro, pero si usted afirma que una declaración no tiene un significado probalístico, no puede usar una expresión con símbolos que se interpreten mejor como variables aleatorias. El problema de optimización que está refiriendo está relacionado con datos fijos, lo expliqué explícitamente.
Matthew Drury

5

Los mínimos cuadrados y el ajuste de probabilidad máximo (gaussiano) son siempre equivalentes. Es decir, se minimizan por el mismo conjunto de coeficientes.

Cambiar la suposición sobre los errores cambia su función de probabilidad (maximizar la probabilidad de un modelo es equivalente a maximizar la probabilidad del término de error) y, por lo tanto, la función ya no se minimizará con el mismo conjunto de coeficientes.

Entonces, en la práctica, los dos son iguales, pero en teoría, cuando maximizas una probabilidad diferente, obtendrás una respuesta diferente que los mínimos cuadrados


"o siempre equivalente"?
nbro

0

Un ejemplo concreto: supongamos que tomamos una función de error simple p (1) =. 9, p (-9) = .10. Si tomamos dos puntos, entonces LS solo tomará la línea a través de ellos. ML, por otro lado, supondrá que ambos puntos son una unidad demasiado alta y, por lo tanto, tomará la línea a través de los puntos desplazados hacia abajo en la unidad.


2
Tu ejemplo no está claro; en particular, es difícil ver qué modelo está tratando de describir o por qué ML produciría el resultado que usted reclama. ¿Podrías dar más detalles en esta respuesta?
whuber

El modelo es que y = mx + b + error, donde el error tiene una probabilidad del 90% de ser +1 y una probabilidad del 10% de ser -9. Dado cualquier punto observado, el punto verdadero tiene una probabilidad del 90% de estar una unidad por debajo y una probabilidad del 10% de estar nueve unidades por encima. Por lo tanto, ML da que el punto verdadero es una unidad por debajo. ¿Qué no entiendes de esto?
Acumulación

2
Su comentario es útil, pero su respuesta aún no describe el modelo de manera clara o comprensible. ¿Podría incorporar esa explicación en la respuesta misma? Es un buen ejemplo.
whuber
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.