Parece que cuando miro por aquí los modernos algoritmos de aprendizaje, se promueven cosas como redes neuronales, árboles potenciados, máquinas de vectores de soporte, bosques aleatorios y amigos para problemas de aprendizaje supervisados. Los procesos de Dirichlet y sus gustos parecen mencionarse principalmente en problemas de aprendizaje no supervisados, como la agrupación de documentos o imágenes. Veo que se utilizan para problemas de regresión, o como objetivos previos de uso general cuando uno quiere hacer estadísticas bayesianas de una manera no paramétrica o semiparamétrica (por ejemplo, como un previo flexible sobre la distribución de efectos aleatorios en ciertos modelos) pero mi experiencia limitada sugiere que Esto no proviene tanto de la multitud de aprendizaje automático como de los estadísticos más tradicionales. He buscado un poco en Google sobre esto y yo '
Entonces, ¿son los procesos de Dirichlet y sus primos más efectivos como prioritarios para los modelos de agrupación flexible? ¿No son competitivos con impulso, SVM y redes neuronales para problemas de aprendizaje supervisado? ¿Son útiles solo en ciertas situaciones para estos problemas? ¿O es incorrecta mi impresión general?