(Meta: não conheço um local apropriado para isso no Stack Exchange. Parece não haver grupos relacionados à tecnologia de direção autônoma e aos sistemas de visão / percepção 3D do computador.)
Para veículos autônomos que usam o LIDAR 3D com percepção de profundidade em uma rodovia, com centenas de outros veículos também usando vários outros scanners LIDAR de varredura por feixe de varredura ou de campo de ponto (estilo kinect), como é capaz de distinguir seus próprios retornos de sinal, da digitalização sendo feito pelos outros sistemas?
Para uma rodovia de várias vias extremamente grande ou cruzamentos complexos de múltiplas vias, essas emissões podem ser vistas em todas as direções, cobrindo todas as superfícies, e não há como evitar a detecção das emissões de feixe de outros scanners.
Este parece ser o principal obstáculo técnico para a implementação do LIDAR para veículos autônomos. Não importa se funciona perfeitamente se for o único veículo na estrada usando o LIDAR.
A verdadeira questão é como ele lida com a inundação de sinais espúrios de sistemas similares em um cenário futuro em que o LIDAR está presente em todos os veículos, potencialmente com vários scanners por veículo e digitalizando em todas as direções ao redor de cada veículo.
É capaz de funcionar normalmente, pode de alguma forma distinguir sua própria varredura e rejeitar outras pessoas, ou, na pior das hipóteses, pode falhar completamente e apenas relatar dados inúteis e não sabe que está relatando dados ilegais?
Esse pelo menos parece ser um argumento forte para ter uma visão 3D passiva do computador, baseada apenas na integração da luz natural e da profundidade da câmera estéreo, como é feito no cérebro humano.