Criando nuvem de pontos fotogramétricos de um objeto a partir de fotografias distribuídas, aqui: Fazendo modelo 3D preciso de construção usando imagens de UAV?


12

Existe uma maneira de criar uma nuvem de pontos fotogramétricos a partir de um conjunto de fotografias densamente distribuídas de um objeto?

Inscrição:

Estou tentando investigar se a criação de um modelo 3D (nuvem de pontos) do lado de fora de um prédio a partir de imagens de UAV (Phantom 3 Pro) seria uma alternativa viável ao uso de um Scanner de laser terrestre (TLS) para criar a nuvem de pontos. O UAV possui uma câmera de 12 megapixels e GPS.

O objetivo é pilotar o UAV pelo prédio, capturando imagens a uma distância relativamente curta e criando uma nuvem de pontos a partir de um denso software de correspondência de imagens (provavelmente Pix4D). O plano é tirar as habituais imagens nadir e oblíquas olhando para o prédio, mas também tentarei voar em alturas baixas e tirar fotos oblíquas e retas olhando para as janelas, beirais etc. para tentar capturar o máximo de detalhes possível.


O Drone2Map da Esri está na versão beta. Faz exatamente o que você está descrevendo. Vale a pena dar uma olhada. Você pode participar da versão beta se estiver interessado e experimentá-la.
BlakeG

Você terá algum ponto de controle no solo?
Kirk Kuykendall

A câmera da Phantom 3 possui uma lente grande angular, então não tenho certeza de quão adequada é para uma aplicação fotogramétrica. Por outro lado, você precisa garantir muita sobreposição entre as imagens, para que seja necessário um planejamento cuidadoso da missão e não estou familiarizado com o software Phantom para saber se isso é possível ou não.
TechTudo_Gus

Ótima pergunta!
NetConstructor.com

O modelo precisa ser georreferenciado? Somente esse recurso o limitará a um punhado de software proprietário muito caro, embora uma opção básica gratuita esteja disponível para Linux. A maioria dos softwares livres não suporta georreferenciamento e os fornecedores mais conhecidos oferecem uma versão barata de seu software de processamento, mas um fator comum é - com o componente de georreferenciamento removido. Pix4D e similares devem ser capazes de fazer facilmente o que você deseja, por um preço elevado.
Jakub Sisak GeoGraphics

Respostas:


-1

O Pix4D fez um projeto chamado Chillon Project, onde eles fizeram exatamente o que você está procurando fazer.

Aqui está um link para o projeto deles no YouTube .

Além disso, eles não confiavam apenas no UAV para capturar as imagens, mas utilizavam fotos terrestres capturadas usando dispositivos portáteis, como Go Pros e Smart Phones.

Os resultados são muito legais!


8

Eu fiz isso antes com sucesso usando o Photosynth Toolkit ( http://www.visual-experiments.com/demos/photosynthtoolkit/ ), exceto que, em vez de um drone, eu estava pendurando minha cabeça em um pequeno avião tirando fotos do centro da cidade de uma cidade pequena. Você também pode conferir o Visual SFM ( http://ccwu.me/vsfm/ ); Eu não o usei, mas parece ser outra ferramenta para realizar a mesma tarefa.

Recentemente, também adquiri um drone e pretendo usar essas duas metodologias para o mesmo projeto. Vou postar alguns exemplos do projeto do kit de ferramentas photosynth quando tiver uma chance.

EDIT: Aqui está um exemplo da saída do Photosynth Toolkit (como exibido em MeshLab http://meshlab.sourceforge.net/ )

insira a descrição da imagem aqui

Estes são os dados da nuvem de pontos (com informações de cores) resultantes de um lote de fotos aéreas que tirei do avião. Agrupei as imagens para focar no processamento da nuvem de pontos para um bloco de cada vez, e é por isso que o bloco é muito mais denso que o resto.

Aqui está a mesma nuvem de pontos com uma rede irregular triangulada sobreposta. Não é perfeito, mas é uma reconstrução legal.

insira a descrição da imagem aqui

Portanto, em resposta à sua pergunta sobre se o uso de um UAV para gerar dados da nuvem de pontos é uma alternativa viável ao scanner a laser terrestre: sim, é!

Lembre-se de que metodologias automatizadas para unir as fotos não funcionam bem em ambientes de iluminação de alto contraste; Se um lado do prédio estiver exposto à luz do sol e o outro à sombra, você poderá ter problemas para alinhar as fotos. A melhor hora para tirar fotos assim é quando está nublado. As nuvens ajudam a difundir a luz do sol, tornando a iluminação mais uniforme / consistente.

Se sua iluminação for boa, você poderá tirar fotos a uma distância relativamente curta para obter um conjunto de dados de nuvens de pontos muito detalhado. Você pode ver no TIN acima que existe uma linha no lado esquerdo que parece do chão ao espaço; esse é um valor discrepante que não foi removido do conjunto de dados. Uma coisa que você deve considerar é o método de suavizar os dados da nuvem de pontos / remover discrepâncias, talvez usando uma análise de vizinho mais próximo.

Se você estiver tirando fotos muito próximas do edifício, convém colocar alvos no edifício para ajudar a relacionar as fotos entre si. Se você usar alvos, verifique se cada um é único para que as fotos não correspondam ao local errado e tente obter 2/3 dos alvos em cada foto. Se você tem alguns alvos no chão, pode usar as leituras de GPS em cada um deles para georreferenciar seu conjunto de dados da nuvem de pontos, para que quaisquer medições feitas no edifício representem medições do mundo real.

Se você deseja pesquisar georreferenciando seus dados da nuvem de pontos, consulte o guia de instruções de Mark Willis ( http://palentier.blogspot.com/2010/12/how-to-create-digital-elevation-model.html ) . É um blog antigo, mas a metodologia é boa.

EDIT2: Último comentário: verifique se você está usando uma câmera sem muita distorção. Por exemplo, a GoPro é uma câmera pequena e incrível para usar drones, mas a distorção significativa causada pela lente grande angular elimina a possibilidade de usar a GoPro padrão para projetos fotogramétricos. Existe uma solução para esse problema, mas pode ser necessário desmontar sua GoPro: http://www.peauproductions.com/collections/survey-and-ndvi-cameras

A Peau Productions vende câmeras GoPro modificadas com lentes diferentes que têm significativamente menos distorção do que a lente que acompanha a câmera. Eles também vendem as lentes se quiser modificar sua câmera por conta própria.

EDIT: Eu sei que esta é uma pergunta antiga, mas pensei em compartilhar o OpenDroneMap, uma ferramenta de código aberto para fazer exatamente esse projeto http://opendronemap.org/


2

Eu acho que uma maneira de fazer isso é o VisualSFM para fazer a correspondência das fotos (quanto mais forte a GPU, melhor) e criar uma nuvem de pontos densa e o MeshLab para criar um modelo triangulado texturizado a partir da nuvem de pontos.

VisualSFM:

http://ccwu.me/vsfm/

http://ptak.felk.cvut.cz/sfmservice/websfm.pl?menu=cmpmvs (cp. especialmente o site 'Tecnologia' e o documento mencionado)

MeshLab:

https://sourceforge.net/projects/meshlab/

Veja alguns aplicativos / instruções (até mesmo o UAV!):

https://www.youtube.com/watch?v=V4iBb_j6k_g

https://www.youtube.com/watch?v=wBKidr0e-XA

https://www.youtube.com/watch?v=-S7HeJvIKcs


Tendo realmente tentado com sucesso essa abordagem, posso compartilhar o seguinte; a curva de aprendizado é bastante acentuada, o Visual SFM leva você a uma nuvem de pontos densa e a placa de vídeo GeForce é necessária. Não é realmente adequado para qualquer trabalho sério de sensoriamento remoto, pois não suporta georreferenciamento. Também é extremamente lento e datado e não há lançamentos há alguns anos.
Jakub Sisak GeoGraphics

2

- https://www.mapsmadeeasy.com/point_estimator, você pode usar isso para fazer um plano de voo definir variáveis ​​conforme o que você deseja, certifique-se de escolher inspirar / fantasma 3 como câmera perto da parte inferior, exportar esse plano como kml para apm .

ou se você é mais experiente, pode usar o software gis de sua escolha para criar uma rota de vôo da grade kml para fazer o upload para a lichia na etapa a seguir.

- https://flylitchi.com/ para planejar o voo, faça o upload do seu kml para o hub da missão a partir do mapsmadeeasy, certifique-se de alterar a altura do voo, é muito liso e permite missões de waypoint impressionantes.

agora você pode voar com sua missão com a configuração de câmera de sua escolha

-post mission use o lightroom para corrigir a distorção (a mesma distorção que inspira 1) http://www.inspirepilots.com/threads/inspire-camera-lens-correction-profiles.1270/ , se você pular esta etapa, seus modelos de elevação terão um tipo de efeito côncavo.

-para o processamento sfm, eu também recomendaria tentar os mapas mais fáceis, pois eles permitem que você use o gcp e use um sistema baseado em pontos, pontos livres no início e pequenos trabalhos são gratuitos.


1

Como o núcleo da questão era a reconstrução 3D de um objeto grande usando um conjunto de imagens adquiridas com o UAV, existem alguns produtos de software que lidam muito com a tarefa. Eles são Pix4D, PixProcessing, Agisoft, CapturingReality, etc. Todos eles são perfeitamente capazes de processar o conjunto de fotos para obter um modelo 3D detalhado do objeto que fornece nuvens de pontos e ortofotos para cálculos adicionais ou simplesmente uma exportação do em qualquer um dos formatos fornecidos. O UAV equipado com o GPS de nível de consumidor pode exigir especificações adicionais dos dados de coordenadas, caso sejam necessárias medições adicionais extremamente precisas. Portanto, para fornecer uma precisão extremamente alta, é possível usar um dispositivo GPS profissional, e essa opção permite georreferenciamento altamente preciso do modelo reconstruído se dados de coordenadas adicionais forem fornecidos para evitar a ocorrência de erros devido à mudança global. Por outro lado, se a marcação geográfica e o georreferenciamento são opcionais e não o alvo do projeto, os dados de GPS do Phantom fornecem informações suficientes para prosseguir. Em resumo, o software mencionado acima é uma alternativa significativa para o TLS.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.