No creo que la gente realmente "quiera" usar solo cámaras. Si cada investigador pudiera permitirse los LiDAR, todos los colocarían en sus robots para entornos al aire libre.
Las cámaras son bastante baratas y el único límite de alcance es la resolución de píxeles / superpíxeles que puede procesar en su algoritmo / software.
La mayoría de los investigadores (incluyéndome a mí) usan cámaras de luz estructurada (aunque no funcionan al aire libre, por lo que cambiamos a cámaras RGB en estos sensores cuando el robot está al aire libre). Una solución a este problema de la luz es que también utilizamos cámaras estéreo (visión estéreo / profundidad de múltiples vistas que es computacionalmente costosa) para determinar aproximadamente la profundidad, en función de las capacidades de procesamiento del controlador / CPU. Otra solución que todavía tengo que explorar personalmente es usar múltiples Kinects / Asus Xtions, etc., donde obtienes corroboración de profundidad, así como múltiples cámaras RGB para exteriores.
Los LiDAR suelen ser muy caros (en los miles de $$ para los realmente buenos). Aunque esto podría cambiar en el futuro con algunas compañías que salgan con $ 250 "LiDAR" como Sweep .
Además, los LRF / LiDAR tienen un alcance y una resolución limitados (es decir, más allá de una cierta distancia, no pueden resolver la profundidad sin ambigüedades y, por lo tanto, devuelven valores 0 (no estoy seguro específicamente sobre los LiDAR, pero las cámaras de profundidad tienen un máximo (por encima del cual) como así como el rango mínimo (debajo del cual) no te dan profundidad).
Espero que esto ayude.