¿Existe una descripción realmente simple de las diferencias prácticas entre estas dos técnicas?
Ambos parecen ser utilizados para el aprendizaje supervisado (aunque las reglas de asociación también pueden manejar sin supervisión).
Ambos se pueden usar para la predicción
Lo más parecido que he encontrado a una "buena" descripción es del Statsoft Textbook . Dicen que las Reglas de asociación se usan para:
... detecta relaciones o asociaciones entre valores específicos de variables categóricas en grandes conjuntos de datos.
Mientras que los clasificadores del Árbol de decisión se describen como utilizados para:
... predice la pertenencia de casos u objetos en las clases de una variable dependiente categórica a partir de sus mediciones en una o más variables predictoras.
Sin embargo, en R Data Mining, dan un ejemplo de reglas de asociación que se utilizan con un campo de destino .
Entonces, ambos pueden usarse para predecir la pertenencia al grupo, ¿es la diferencia clave que los árboles de decisión pueden manejar datos de entrada no categóricos mientras que las reglas de asociación no pueden? ¿O hay algo más fundamental? Un sitio ( sqlserverdatamining.com ) dice que la diferencia clave es:
Las reglas de los árboles de decisión se basan en la ganancia de información, mientras que las reglas de asociación se basan en la popularidad y / o la confianza.
Entonces (posiblemente respondiendo a mi propia pregunta), ¿eso significa que las reglas de asociación se evalúan únicamente con respecto a la frecuencia con la que aparecen en el conjunto de datos (y con qué frecuencia son "verdaderas") mientras que los árboles de decisión en realidad están tratando de minimizar la varianza?
Si alguien sabe de una buena descripción que estaría dispuesto a señalarme, entonces sería genial.