Los trabajos de investigación sobre aprendizaje automático a menudo tratan el aprendizaje y la inferencia como dos tareas separadas, pero no me queda claro cuál es la distinción. En este libro, por ejemplo, usan estadísticas bayesianas para ambos tipos de tareas, pero no proporcionan una motivación para esa distinción. Tengo varias ideas vagas de lo que podría tratarse, pero me gustaría ver una definición sólida y tal vez también refutaciones o extensiones de mis ideas:
- La diferencia entre inferir los valores de las variables latentes para un determinado punto de datos y aprender un modelo adecuado para los datos.
- La diferencia entre extraer variaciones (inferencia) y aprender las variaciones para poder extraer variaciones (aprendiendo la dinámica del espacio de entrada / proceso / mundo).
- La analogía neurocientífica podría ser la potenciación / depresión a corto plazo (rastros de memoria) frente a la potenciación / depresión a largo plazo.