La mayoría de las descripciones de los métodos de representación de Monte Carlo, como el trazado de ruta o el trazado de ruta bidireccional, suponen que las muestras se generan de forma independiente; es decir, se usa un generador de números aleatorios estándar que genera un flujo de números independientes y distribuidos uniformemente.
Sabemos que las muestras que no se eligen independientemente pueden ser beneficiosas en términos de ruido. Por ejemplo, el muestreo estratificado y las secuencias de baja discrepancia son dos ejemplos de esquemas de muestreo correlacionados que casi siempre mejoran los tiempos de renderizado.
Sin embargo, hay muchos casos en los que el impacto de la correlación de la muestra no es tan claro. Por ejemplo, los métodos de Markov Chain Monte Carlo como Metropolis Light Transport generan una corriente de muestras correlacionadas usando una cadena de Markov; los métodos de muchas luces reutilizan un pequeño conjunto de rutas de luz para muchas rutas de cámara, creando muchas conexiones de sombra correlacionadas; incluso el mapeo de fotones gana su eficiencia al reutilizar los recorridos de luz a través de muchos píxeles, lo que también aumenta la correlación de la muestra (aunque de forma sesgada).
Todos estos métodos de representación pueden resultar beneficiosos en ciertas escenas, pero parecen empeorar las cosas en otras. No está claro cómo cuantificar la calidad del error introducido por estas técnicas, aparte de representar una escena con diferentes algoritmos de representación y observar si uno se ve mejor que el otro.
Entonces la pregunta es: ¿cómo influye la correlación de la muestra en la varianza y la convergencia de un estimador de Monte Carlo? ¿Podemos de alguna manera cuantificar matemáticamente qué tipo de correlación muestral es mejor que otras? ¿Hay alguna otra consideración que pueda influir en si la correlación de la muestra es beneficiosa o perjudicial (por ejemplo, error de percepción, parpadeo de animación)?