(Meta: no conozco un lugar apropiado para esto en Stack Exchange. No parece haber ningún grupo relacionado con la tecnología de conducción autónoma y los sistemas informáticos de visión / percepción 3D).
Para vehículos autónomos que utilizan la percepción de profundidad 3D LIDAR en una carretera con cientos de otros vehículos que también utilizan otros escáneres de emisión de barrido de haz LIDAR o de campo puntual (estilo Kinect), ¿cómo es capaz de distinguir sus propios retornos de señal? hecho por los otros sistemas?
Para una carretera de varios carriles extremadamente grande o intersecciones complejas de múltiples vías, tales emisiones se pueden ver en todas las direcciones, cubriendo todas las superficies, y no hay forma de evitar detectar las emisiones del haz de otros escáneres.
Este parece ser el principal obstáculo técnico para implementar LIDAR para vehículos autónomos. No importa si funciona perfectamente si es el único vehículo en la carretera que usa LIDAR.
La verdadera pregunta es cómo se trata de ser inundado con señales espurias de sistemas similares en un escenario futuro donde LIDAR está presente en cada vehículo, potencialmente con múltiples escáneres por vehículo y escaneo en todas las direcciones alrededor de cada vehículo.
¿Es capaz de funcionar normalmente, puede distinguir de alguna manera su propio escaneo y rechazar otros, o en el peor de los casos, puede fallar por completo y solo informar datos basura que son inútiles, y no sabe que está informando datos basura?
Esto al menos parece ser un caso sólido para tener una visión pasiva por computadora en 3D que solo se basa en la integración de la luz natural y la profundidad de la cámara estéreo, como se hace en el cerebro humano.