¿Por qué no se enseñan mucho las transformaciones de potencia o registro en el aprendizaje automático?


24

El aprendizaje automático (ML) utiliza técnicas de regresión lineal y logística en gran medida. También se basa en técnicas de ingeniería función ( feature transform, kernel, etc).

¿Por qué es nada acerca de variable transformation(por ejemplo power transformation) mencionado en ML? (Por ejemplo, nunca escuché acerca de cómo rootear o iniciar sesión en entidades, por lo general solo usan polinomios o RBF). Del mismo modo, ¿por qué los expertos en ML no se preocupan por las transformaciones de características para la variable dependiente? (Por ejemplo, nunca escuché sobre tomar la transformación logarítmica de y; simplemente no transforman y).

Ediciones: Tal vez la pregunta no es definitivamente, mi verdadera pregunta es "¿la transformación de poder a variables no es importante en ML?"


44
Me gustaría saber por qué esto fue rechazado; En realidad es una pregunta interesante.
shadowtalker

1
Creo que la mayoría de las personas habrían tomado un curso de regresión lineal antes de su primer curso de ML. Seguramente, el curso de LR de existencias contendría un capítulo sobre estas cosas (transformaciones). Por cierto, no rechacé la pregunta.
user603

Respuestas:


12

El libro Applied Predictive Modeling de Kuhn y Johnson es un libro práctico de aprendizaje automático muy apreciado con una gran sección sobre transformación variable que incluye Box-Cox. Los autores afirman que muchos algoritmos de aprendizaje automático funcionan mejor si las características tienen distribuciones simétricas y unimodales. La transformación de características como esta es una parte importante de la "ingeniería de características".


8

Bueno, desde mi propia perspectiva, a menudo estoy interesado en la distribución predictiva de la variable de respuesta, en lugar de solo la media condicional, y en ese caso es mejor usar una probabilidad de que represente más correctamente la distribución objetivo. Por ejemplo, me gusta usar modelos lineales kernelised en lugar de (por ejemplo) soportar la regresión de vectores, porque puedo usar una probabilidad de Poisson si lo deseo. Como muchas personas de aprendizaje automático son bayesianas, sospecho que usar una probabilidad diferente parecerá más elegante que las transformaciones (elegir una probabilidad apropiada es generalmente el primer paso).


0

Aquí están mis pensamientos posteriores.

Creo que se debe a que ML se ocupa principalmente de la clasificación, y la clasificación no es necesaria para transformar y (y es categórico). ML generalmente trata con grandes variables independientes (por ejemplo, miles en PNL) y la regresión logística no requiere normalidad; Creo que es por eso que no usan la transformación de potencia de Box-Cox debido a la consideración de velocidad. (nota: no estoy familiarizado con la transformación de poder).

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.