Recentemente, peguei uma lente superzoom, a Nikon 28-300mm. Embora eu o tenha obtido principalmente por sua versatilidade, minha intuição era que uma lente que pudesse fazer uma distância focal de 300 mm a 50 cm, como realmente pode, também ofereceria ampliação razoável para fotos macro.
Fiquei chocado ao descobrir que, a uma distância de cerca de 5 metros, minha lente macro de 105 mm com teleconversor 2x oferece um campo de visão consideravelmente mais estreito a 210 mm do que a minha lente 28-300 mm a 300 mm! Encontrei um tópico no fórum sobre essa lente que explica:
Quem espera poder usá-lo como macro deve verificar cuidadosamente a ampliação máxima: 0,32x. Sendo uma lente IF, a Nikkor aumenta drasticamente o ângulo de visão com um foco mais próximo. [...] 0,32x a 50cm calcula aproximadamente uma distância focal de 92mm a [distância mínima de foco] ... então "dramaticamente" poderia ter sido escrito mesmo em letras maiúsculas.
Eu gostaria de entender melhor quais princípios de construção de lentes e / ou física levam a esse comportamento contra-intuitivo. Em um nível pragmático: está claro que posso derivar o campo de visão efetivo a uma distância mínima de foco da ampliação máxima listada nas especificações, mas como determino o campo de visão efetivo em outras distâncias? Por exemplo, como eu determinaria o campo de visão da minha lente de 28-300 mm a 300 mm e 3 metros? Eles podem ser calculados ou devem ser determinados empiricamente? Se eles devem ser determinados empiricamente, existem pessoas que documentam publicamente esse tipo de coisa?