Aqui está uma explicação da mordaça do Photoshop: http://www.threadless.com/profile/433934/elleevee/blog/493381/Threadless
Basicamente, eles estão usando o filtro de deslocamento para empurrar apenas o canal vermelho ou os canais azul + verde de uma imagem para a esquerda ou para a direita. O mapa de altura apenas atenua a distância em que você desloca cada pixel. Eu acredito que o filtro de deslocamento interpola os valores entre os valores, ou seja, se o pixel em (10,0) foi deslocado para a esquerda por 3 pixels e o pixel (11,0) foi deslocado para a esquerda por apenas 1, então os dois pixels em entre os pixels de destino seria interpolado dos dois valores originais em 66% e 33%.
Essa interpolação efetivamente cobre os dados ausentes: se você realmente tivesse dois pontos de vista de sua cena, esses pixels representariam informações ocultas na visualização única. Posso imaginar uma atualização para o método descrito acima, em que algoritmos de reconstrução semelhantes ao preenchimento com reconhecimento de conteúdo do Photoshop poderiam ter uma facada melhor no preenchimento das informações ausentes.