As telas conectadas às câmeras são significativamente diferentes das janelas ou espelhos. Olhando através de uma janela ou espelho, podemos nos concentrar no infinito, e podemos mudar nosso ponto de vista para ver um pouco diferente. Com uma tela mostrando imagens da câmera ao vivo, vemos o campo de visão a partir de um único ponto (o local da câmera) e nosso foco está na tela.
Seria possível desenvolver uma tela + câmera com comportamento muito mais próximo de uma janela ou espelho? Acho que a tela e a câmera precisariam ter a mesma área de superfície. Ambos seriam sensíveis à direção e, quando o pixel da câmera na câmera recebe um fóton com frequência ν dos ângulos ( C ϕ , C θ ) , a tela envia um fóton correspondente na frequência ν da posição ( S i , S j ) na direção ( S ϕ , , onde ( S ϕ , S θ ) são calculados a partir de ( C ϕ , C θ ) imitando o comportamento de janela ou espelho.
Esse dispositivo é teoricamente possível? Se sim, esse dispositivo seria tecnicamente viável hoje? Se sim, houve algum trabalho sério nesses dispositivos? Se for teoricamente possível, mas não viável hoje, o que precisaria ser desenvolvido antes que esses dispositivos estivessem no horizonte?
Deve ter uma ampla gama de aplicações em telepresença , realidade aumentada , engenharia automotiva e, certamente, muitos outros campos.