Las pantallas de visualización conectadas a las cámaras son significativamente diferentes de las ventanas o los espejos. Mirando a través de una ventana o espejo, podemos enfocarnos en el infinito, y podemos mover nuestro punto de vista para ver un poco diferente. Con una pantalla que muestra imágenes de la cámara en vivo, vemos el campo de visión desde un solo punto (la ubicación de la cámara) y nuestro foco está en la pantalla.
¿Sería posible desarrollar una pantalla + cámara que tenga un comportamiento mucho más cercano a una ventana o un espejo? Creo que la pantalla y la cámara necesitarían tener la misma superficie. Ambos serían sensibles a la dirección, y cuando el píxel de la cámara en la cámara recibe un fotón con frecuencia desde los ángulos , la pantalla envía un fotón correspondiente a la frecuencia desde posición a la dirección , donde se calculan a partir de imitando un comportamiento similar a una ventana o espejo.
¿Es este dispositivo teóricamente posible? En caso afirmativo, ¿tal dispositivo sería técnicamente factible hoy? En caso afirmativo, ¿ha habido algún trabajo serio en tales dispositivos? Si es teóricamente posible pero no factible hoy, ¿qué se necesitaría desarrollar antes de que tales dispositivos estén en el horizonte?
Debería tener una amplia gama de aplicaciones en telepresencia , realidad aumentada , ingeniería automotriz y seguramente muchos otros campos.