Estimando a resolução de dados vetoriais?


8

Eu tenho um antigo conjunto de dados vetoriais com polígonos cobrindo um continente. Os dados foram publicados pela primeira vez em papel na escala 1: 5 000 000 e posteriormente digitalizados. Não tenho os dados originais e nenhuma informação sobre a vetorização ou nenhum metadado. Eu acho que a distância entre os vértices e não a precisão limita a resolução.

Os vértices são salvos com alta resolução (por exemplo, "nnn.nnnnnnnnn", "- nn.nnnnnnnnn"). O conjunto de dados possui poucos pontos que podem ser georreferenciados, e nenhum nó definido como coordenadas (por exemplo, em graus pares ou coordenadas UTM). Quando comparo algumas seções da costa, o erro é de +/- 20 km.

Eu gostaria de encontrar uma fórmula para estimar o erro máximo com base na distribuição dos vértices. Eu tenho acesso a qualquer aplicativo GIS, mas preferiria uma referência estatística robusta.

Como posso calcular o erro máximo do conjunto de dados, assumindo que todos os vértices estão corretos? Ou formulado de maneira diferente: Que método posso usar para encontrar a maior resolução do conjunto de dados?

Tentei rasterizar o conjunto de dados em diferentes tamanhos de célula e, em seguida, superamostra-lo para um tamanho de célula pequeno para detectar o menor rasterização possível sem perda de resolução, mas essa é uma abordagem bastante demorada e não muito matemática.


Eu diria que pelo menos os vértices podem ter precisão de 0,1 mm no papel, o que significa 500 m na escala 1: 500000. Acima disso, pode ser muito difícil dizer qual é o efeito da simplificação e outros fatores, especialmente se o mapa original foi desenhado à mão.
user30184

Sim, esse seria o melhor cenário. Infelizmente, acho que minha resolução útil é muito menor, pois os polígonos têm vértices bastante esparsos e parecem mais angulares do que eu esperaria de dados naturais, por exemplo, meteorológicos. Também não tenho acesso aos mapas originais, devo mencionar.
Tactopoda

1
@ user30184 0,1 milímetros é bastante otimista, eu preferiria esperar 0,3 milímetros
radouxju

E este blog considera 1 mm como o menor tamanho detectável blogs.esri.com/esri/arcgis/2010/12/12/… . Isso significaria 5000 m na escala 1: 5000000 (deixei um zero do meu comentário acima ao escrever).
user30184

Respostas:


2

Ótima pergunta - eu já vi esse tipo de pergunta surgir várias vezes e, infelizmente, muitas pessoas que realizam análises quantitativas GIS ignoram o componente CRÍTICO do cálculo da incerteza em conjuntos de dados espaciais. Existem conceitos e terminologia importantes que precisam ser esclarecidos antes que esse tipo de tarefa possa ser resumido a resultados quantitativos.

O cálculo do erro em um conjunto de dados espacial pressupõe o conhecimento prévio da linhagem dos conjuntos de dados. Como os metadados não estão disponíveis em nenhuma etapa do processo, esse tipo de quantificação não é possível. A precisão das coordenadas em um conjunto de dados vetoriais não garante a afirmação de que o conjunto de dados é preciso em qualquer grau. Rasterizar um conjunto de dados herdará seu próprio grau de erro e incerteza nos dados.

Sem os metadados e o cálculo contínuo de erros e incertezas, o conjunto de dados pode ser considerado uma imagem bonita. Embora possa parecer um processo simples usar a escala do mapa original e a natureza precisa das coordenadas poligonais do vetor, os conceitos fundamentais da geografia serão violados se o erro e a incerteza não forem calculados em todas as etapas da criação do conjunto de dados a partir de:

  1. captura original do conjunto de dados (erro e incerteza introduzidos)
  2. criação de mapas em papel (generalizações são feitas)
  3. digitalização do mapa em papel para arquivo vetorial digital (mais erros, mais incertezas)

Embora essa possa não ser a resposta que você está procurando, é um bom ponto de partida para qualquer pessoa em situação semelhante:

  • Se você tiver tarefas para calcular uma representação quantitativa precisa da incerteza de um modelo espacial, sugiro pesquisar o tópico "Incerteza e propagação de erros em dados espaciais", pois o tópico é profundo, matemático e estatisticamente denso.

  • Se você estiver usando o conjunto de dados como uma imagem bonita, inicie o mapeamento.


0

Concordo com Alex, como não há metadados disponíveis e a linhagem de dados definida como desconhecida, avaliar o erro é difícil. O erro deve ser quantificado em um local conhecido e preciso, se existir nas extensões do conjunto de dados.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.