Soy un entusiasta de la programación y el aprendizaje automático. Hace solo unos meses comencé a aprender sobre programación de aprendizaje automático. Al igual que muchos que no tienen una formación científica cuantitativa, también comencé a aprender sobre ML jugando con los algoritmos y conjuntos de datos en el paquete de ML ampliamente utilizado (caret R).
Hace un tiempo leí un blog en el que el autor habla sobre el uso de la regresión lineal en ML. Si recuerdo bien, habló sobre cómo todo el aprendizaje automático al final usa algún tipo de "regresión lineal" (no estoy seguro de si utilizó este término exacto) incluso para problemas lineales o no lineales. Esa vez no entendí lo que quería decir con eso.
Mi comprensión del uso del aprendizaje automático para datos no lineales es usar un algoritmo no lineal para separar los datos.
Este fue mi pensamiento
Digamos que para clasificar los datos lineales usamos la ecuación lineal y para los datos no lineales usamos la ecuación no lineal digamos
Esta imagen está tomada del sitio web sikit learn de la máquina de vectores de soporte. En SVM utilizamos diferentes núcleos para propósitos de ML. Entonces, mi pensamiento inicial fue que el núcleo lineal separa los datos usando una función lineal y el núcleo RBF usa una función no lineal para separar los datos.
Pero luego vi este blog donde el autor habla sobre las redes neuronales.
Para clasificar el problema no lineal en la subtrama izquierda, la red neuronal transforma los datos de tal manera que al final podemos usar una separación lineal simple para los datos transformados en la subtrama derecha
Mi pregunta es si todos los algoritmos de aprendizaje automático al final usan una separación lineal para la clasificación (conjunto de datos lineal / no lineal).