Soy un chico nuevo en procesamiento de imágenes y visión por computadora, por lo que esta pregunta puede ser estúpida para ti.
Acabo de aprender algunos algoritmos de detección y descripción de características, como Harris, Hessian, SIFT, SURF , procesan imágenes para descubrir esos puntos clave y luego calculan un descriptor para cada uno, el descriptor se usará para la coincidencia de características.
Probé SIFT y SURF, descubrí que no son tan robustos como pensaba, ya que para 2 imágenes (una está rotada y afinada un poco), no coinciden bien con las características, entre casi 100 puntos de características, solo 10 Los partidos son buenos.
Entonces me pregunto
¿Para qué podemos usar estos algoritmos de detección de características en la práctica? ¿Existe algún algoritmo más robusto para la detección y coincidencia de características? ¿O SIFT y SURF ya son buenos, solo necesito refinarlos para usarlos más?
Otro problema es que pensé que estos algoritmos no son para aplicaciones en tiempo real (sin considerar la implementación de múltiples núcleos), ¡pero hay algunos productos comerciales (como Kinect) que funcionan y responden en tiempo real! Supongo que estos productos también detectan y combinan características de lo que ven , ¿usan algoritmos como SIFT ? ¿Cómo podrían detectar características tan bien?
Con mi conocimiento limitado, sé que la coincidencia de características se puede utilizar para encontrar los mismos objetos en dos imágenes o estimar homografías, pero ¿algún otro propósito para la coincidencia de características?