A maioria das descrições dos métodos de renderização de Monte Carlo, como rastreamento de caminho ou rastreamento de caminho bidirecional, assume que as amostras são geradas independentemente; isto é, é usado um gerador de números aleatórios padrão que gera um fluxo de números independentes e uniformemente distribuídos.
Sabemos que amostras que não são escolhidas independentemente podem ser benéficas em termos de ruído. Por exemplo, amostragem estratificada e sequências de baixa discrepância são dois exemplos de esquemas de amostragem correlacionados que quase sempre melhoram o tempo de renderização.
No entanto, existem muitos casos em que o impacto da correlação da amostra não é tão nítido. Por exemplo, os métodos Monte Carlo da cadeia de Markov, como o Metropolis Light Transport, geram um fluxo de amostras correlacionadas usando uma cadeia de Markov; os métodos de muitas luzes reutilizam um pequeno conjunto de caminhos de luz para muitos caminhos de câmera, criando muitas conexões de sombra correlacionadas; mesmo mapeamento de fótons ganha eficiência ao reutilizar os caminhos de luz em muitos pixels, aumentando também a correlação de amostras (embora de maneira tendenciosa).
Todos esses métodos de renderização podem ser benéficos em certas cenas, mas parecem piorar as coisas em outras. Não está claro como quantificar a qualidade do erro introduzido por essas técnicas, além de renderizar uma cena com diferentes algoritmos de renderização e observar se uma parece melhor que a outra.
Portanto, a pergunta é: como a correlação amostral influencia a variação e a convergência de um estimador de Monte Carlo? De alguma forma, podemos quantificar matematicamente que tipo de correlação amostral é melhor que outros? Existem outras considerações que podem influenciar se a correlação da amostra é benéfica ou prejudicial (por exemplo, erro de percepção, tremulação da animação)?