¿Qué es la corrección de sesgo? [cerrado]


12

He visto muchos lugares donde tienen conjuntos de datos de entrada / salida donde primero crean una línea de regresión lineal, corrigen el sesgo y luego solo usan esos datos para su modelo. ¿No entendí qué es esta corrección de sesgo?


66
Creo que es posible que deba proporcionar una referencia o un ejemplo explícito para que podamos saber con precisión a qué está reaccionando.
whuber

@ naught101, haz algunos a la vez, no envíes spam a la página principal.
gung - Restablecer Monica

@gung: ah ... ¿te refieres a etiquetar algunos y luego esperar un poco? Lo siento muy tarde. Solo encontré 10 más o menos, y los hice todos. Olvidé el efecto de la página principal: / Si solo SE tuviera una buena función de etiquetado masivo.
naught101

@gung: Tal vez hoy pueda ser el día inaugural de corrección de sesgos: D
naught101

1
@ naught101 el reenganche masivo unilateral es un no-no, especialmente en una etiqueta que acaba de hacer. En términos generales, es mejor involucrarse en meta cuando sea factible (para explicar lo que pretende), y si parece poco controvertido, entonces debe realizar algunas modificaciones pero solo unas pocas a la vez.
Glen_b -Reinstate Monica

Respuestas:


11

Aunque el enunciado del problema no es lo suficientemente preciso como para saber exactamente a qué tipo de corrección de sesgo se refiere, creo que puedo hablar al respecto en términos generales. Algunas veces un estimador puede estar sesgado. Esto simplemente significa que aunque puede ser un buen estimador, su valor esperado o promedio no es exactamente igual al parámetro. La diferencia entre el promedio del estimador y el valor del parámetro verdadero se llama sesgo. Cuando se sabe que un estimador está sesgado, a veces es posible, por otros medios, estimar el sesgo y luego modificar el estimador restando el sesgo estimado de la estimación original. Este procedimiento se llama corrección de sesgo. Se hace con la intención de mejorar la estimación. Si bien reducirá el sesgo, también aumentará la varianza.

Un buen ejemplo de corrección de sesgo exitosa son las estimaciones de corrección de sesgo bootstrap de la tasa de error de clasificación. La estimación de restitución de la tasa de error tiene un gran sesgo optimista cuando el tamaño de la muestra es pequeño. La rutina de carga se usa para estimar el sesgo de la estimación de resubstitución y dado que la estimación de resubstitución subestima la tasa de error, la estimación de sesgo se agrega a la estimación de restitución para obtener la estimación corregida de la tasa de error. Cuando el tamaño de la muestra es pequeño de 30 o menos, combinando ambas clases en un problema de dos clases, ciertas formas de la estimación de arranque (particularmente la estimación 632) proporcionan estimaciones más precisas de las tasas de error que la validación cruzada de dejar uno fuera (que es una muy estimación casi imparcial de la tasa de error).


1
"Si bien reducirá el sesgo, también aumentará la varianza". - ¿Puedes explicar eso un poco más? ¿No depende del método? ¿Básicamente quiere decir que reducir el sesgo de una regresión lineal óptima RMSE necesariamente aumentará el RMSE, o es algo más?
naught101
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.