¿HMMs versus CRFs para modelar datos de fuerza de series temporales de robots que interactúan con el entorno?


9

Tengo una serie temporal de datos de fuerza de robots que interactúan con objetos del entorno con varias texturas. Me gustaría desarrollar modelos de varias texturas utilizando los datos de series temporales para clasificar las texturas en categorías suaves, ásperas, moderadas, etc. Para este propósito, ¿serán suficientes los modelos ocultos de Markov o debería usar campos aleatorios condicionales? Si decido clasificar en más categorías y la distinción entre cada una de las categorías es muy sutil, en ese caso, ¿cuál sería una buena opción? ¿Los datos forzados serán suficientes para capturar toda la información que necesito para clasificar las texturas en estas categorías?

Gracias por tus respuestas :)

Respuestas:


5

Según la descripción de su problema, funcionarán tanto HMM (modelo generativo) como CRF (modelo discriminativo). Vea esta discusión para una explicación más profunda de los dos enfoques:

¿Cuál es la diferencia entre un algoritmo generativo y discriminativo?

Una sugerencia: antes de elegir un algoritmo, comience mirando cuidadosamente sus datos numéricos, con diagramas de MATLAB o similares. Si la información es multidimensional (p. Ej., Valores de fuerza de múltiples sensores), es posible que algunas dimensiones (p. Ej., Lecturas de sensores) no contengan información discriminatoria útil; en este caso, comprima los datos con el Análisis de componentes principales para que tenga características más compactas durante el entrenamiento y la clasificación.

Ahora, con respecto a su pregunta:

La diferencia es que los HMM pueden representar cada una de sus clases de textura con varias variables / estados ocultos, capturando así la evolución temporal interna de cada contacto. Podemos decir que HMM modela mejor la dinámica de "bajo nivel" (dentro de la clase) de sus datos. Por ejemplo, en su caso, los HMM le permitirán modelar explícitamente tres fases diferentes de cada adquisición de datos: (1) inicio del contacto entre el robot y el objeto; (2) parte estable del contacto; (3) fin del contacto y liberación. Estas fases podrían tener diferentes valores en el tiempo, incluso para la misma textura de objeto, y podría tener sentido separarlas para mejorar los resultados de clasificación.

Por otro lado, los CRF son más adecuados para capturar las relaciones de "alto nivel" (entre clases) de su distribución de datos, que a veces son importantes cuando la variabilidad espacio-temporal es alta, o cuando las características de observación son muy similares entre Dos muestras pertenecientes a diferentes clases.

Personalmente, encuentro que los HMM son más fáciles de usar y comenzaría con ellos, pero su kilometraje puede variar.

Si decido clasificar en más categorías y la distinción entre cada una de las categorías es muy sutil, en ese caso, ¿cuál sería una buena opción?

En ese caso, los CRF pueden ser una opción más sólida (ver arriba).

¿Los datos forzados serán suficientes para capturar toda la información que necesito para clasificar las texturas en estas categorías?

Agregar características visuales (apariencia del objeto), especialmente si se captura con cámaras de alta resolución, podría ayudar a determinar si el objeto tiene una textura rugosa o no.


Lo siento por la respuesta tardía. Tus comentarios han sido muy útiles. Ya implementé HMM y parecen funcionar bien. No convertí los datos en su representación de baja dimensión usando PCA, sino que utilicé HMM que pueden incorporar datos / distribuciones continuas para evitar perder cualquier información. Pero como de todos modos lo estoy usando para la clasificación, creo que usar enfoques discriminatorios podría dar mejores resultados (aún por ver y confirmar).
Gilmour

Me alegra saber que los HMM funcionan bien para modelar los datos del sensor de fuerza. Me interesaría saber más al respecto.
Giovanni Saponaro
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.