Estoy siguiendo un curso de visión por computadora y tengo este ejercicio: escribir un programa que, dada una imagen de la mano, pueda reconocer si la mano está abierta, cerrada, en un puñetazo o sosteniendo una postura "ok", usando solo la Técnicas proporcionadas hasta ahora (píxel 4/8 conectado, región conectada, búsqueda de contorno, búsqueda de agujeros, propiedad de blob como centroide, área, perímetro, excentricidad, momentos de imagen, transformación de imagen como inversión / potencia / log / corrección gamma / estiramiento de contraste, histograma computación y ecualización).
Lo he hecho con algunas propiedades básicas de blob (la mano cerrada tiene una baja excentricidad, "ok" tiene un agujero, la mano abierta tiene una gran diferencia entre el área de la elipse inscrita en el blob y el área del blob con una baja excentricidad) .. Parece que funciona, pero la primera imagen es un poco problemática.
Creo que podría haber algo más para hacer un algoritmo más robusto. Tal vez algún tipo de propiedad de momento? ¿Podría ayudar algún eje de blob / orientación / puntos extremos?
Imágenes de prueba de PS: