Exemplo de aplicação
Paralaxe O conceito de paralaxe está relacionado com o deslocamento relativo ou aparente dos objetos estacionários, quando um observador em movimento os olha de pontos diferentes. Em se tratando de fotografias aéreas, o observador móvel é o avião, o objeto estacionário é o terreno e os pontos-imagens diferentes são duas imagens consecutivas e superpostas longitudinalmente (PAREDES, 1987). Segundo Jensen (2009), a paralaxe é uma característica normal da fotografia aérea e é a base para a visualização estereoscópica tridimensional.
O deslocamento aparente nas imagens, de um determinado ponto, em um par estereoscópico, é chamado de paralaxe de um ponto.
O 1 O 2 B H Hv xa 1 xb a 1 b 1 x a 2 xa b 2 xb 2 x linha de voo 1 2 h A Relações Geométricas da paralaxe estereoscópica Fonte: Paredes (1987). B
y y b 1 b 2 a 1 a 2 PP 1 x PP 2 x xa 1 xb 2 xb 1 xa 2 Foto1 Foto2 Representação Hipotética de duas imagens aéreas verticais consecutivas de um terreno Fonte: Paredes (1987).
px i = x x i1 i2 A diferença algébrica entre os deslocamentos aparentes das imagens é chamada de paralaxe absoluta, e sua forma geral é dada por px i = x x i1 i2
pxi é a paralaxe absoluta das imagens, com i=a, b, c,...z; x i1 é o deslocamento, ao longo da abscissa, do ponto principal ao pé das imagens (ponto-imagem) na fotografia da esquerda (valores positivos); x i2 é o deslocamento, ao longo da abscissa, do ponto principal ao pé das imagens (ponto-imagem) na fotografia da direita (valores negativos); A paralaxe em x existirá sempre que houver variações de altitude na superfície fotografada. Já a paralaxe em y, não deve existir, pois, prejudica sensivelmente a visão estereoscópica.
Geometria Básica da Fotografia Aérea Uma fotografia faz um registro preciso das posições dos objetos na cena no momento da exposição. Ao adquirir várias fotografias aéreas ao longo de uma linha de voo, os pontosimagens são registrados a partir de diferentes perspectivas
Interpolação De posse dos pontos amostrados (coletados), e em função da aplicação, pode ser necessário o uso de algum método de interpolação para aumentar a quantidade dos pontos que representam o terreno e, consequentemente, para melhor representá-los.
Interpolação espera-se que função interpoladora tenha propriedades matemáticas de interesse para a aplicação, de modo a reproduzira uma superfície contínua, em um tempo computacional não proibitivo. em geral, os métodos de interpolação são globais ou locais. Os métodos globais levam em consideração todos os pontos que foram amostrados, ajustando alguma função que passe por todos esses pontos. Os métodos locais são influenciados por pontos que estejam em certa vizinhança, diminuindo sua contribuição à medida que a distância ao ponto interpolado aumenta.
Interpolação existe uma variedade muito grande de formas de interpolação que podem ser utilizadas para a densificação do MDT: polinômios, splines, elementos finitos, mínimos quadrados, inverso do duadrado da distância, vizinho mais próximo, média simples, vizinhança natural e krigagem linear e não-linear.
Extração de Características A Extração de características é um dos principais temas em Fotogrametria e Visão Computacional. consiste da extração de características de interesse de duas ou mais imagens do mesmo objeto e da correspondência destas características em imagens adjacentes. (LÍNGUA; MARENCHINO; NEX, 2009).
A correspondência confiável das características de imagens é um problema básico em aplicações de visão computacional, como reconstrução 3D a partir de imagens estéreo, reconhecimento de objetos, montagem automática de mosaicos, reconhecimento de cenas e perseguição de movimentos (CUI et al., 2009).
Uma abordagem para se trabalhar com correspondência de imagens é utilizar vetores de características de uma imagem ou de determinadas regiões de uma imagem para representá-la. A esse processo dá-se o nome de descritores e, geralmente, são formados por descritores locais ou globais. Os descritores podem ser usados para comparar regiões em diferentes imagens (BELO, 2005).
SCALE INVARIANT FEATURE TRANSFORM (SIFT) David Lowe (LOWE, 1999; 2004) propôs o método SIFT, cujo objetivo é extrair características distintas de imagens ou cenas, invariantes a escala e rotação, e parcialmente invariante a mudança de iluminação e de ponto de vista.
SCALE INVARIANT FEATURE TRANSFORM (SIFT) estágios de computação usados para gerar o conjunto de características da imagem: Detecção de extremos no espaço escala: utiliza uma função diferença-gaussiana (filtros) para identificar pontos de interesse em potencial que são invariantes a escala e rotação; Localização de pontos chave (Keypoints): para cada local candidato, um modelo detalhado é apto para determinar a localização e escala. Keypoints são selecionados com base em medidas de estabilidade; Atribuição de orientação: Uma ou mais orientações são definidas para cada ponto chave baseadas em direções dos gradientes locais da imagem. Descritor de pontos chave: Os gradientes locais da imagem são medidos na região em torno de cada ponto chave na escala selecionada. Estas medidas são transformadas em uma representação que permite a níveis significativos de distorção da forma local e mudança na iluminação.
SCALE INVARIANT FEATURE TRANSFORM (SIFT) originalmente concebido para operar em imagens estereoscópicas sensoriadas a curta distância em aplicações de reconhecimento de objetos, tais como robótica e reconhecimento facial (SILVEIRA, 2011). Outras aplicações: modelagem 3D de objetos pequenos (arqueologia) (KALANTARI, 2004), sensoriamento remoto: a utilização com imagens de satélite e imagens aéreas (ABEDINI; HAHNB, M. e SAMADZADEGANA, 2008; HECKEL, 2008) e dados de radar (LI; ZHANG; YAN, 2008), mapeamento em tempo real de veículos aéreos não tripulados (STEFFEN; FÖRSTNER, 2008), detecção de objetos (TAO et al., 2011)
SCALE INVARIANT FEATURE TRANSFORM (SIFT) Segundo Língua, Marenchino e Nex (2009) vários métodos semelhantes ao SIFT têm sido desenvolvidos para superar seu alto custo computacional, no entanto, as implementações mais rápidas PCA e Speed Up robust Features (SURF) reduzem a precisão da localização ponto.
(a) (b) Estereopares da região de Nova Friburgo (a) esquerda e (b) direita. Fonte: Fernandes (2008)
Exemplo do resultado das correspondências encontradas em uma aplicação do algoritmo SIFT utilizando distratio =0,6, 0,7, 0,8 e 0,9, respectivamente Figura (a), com 502 (uma deverá ser descartada), Figura (b) com 981 (seis deverão ser descartadas), Figura (c), com 1794 (51 devem se descartadas) e Figura (d) com 4026 (1529 devem ser descartadas).
Redução das altitudes encontradas a partir dos pontos homólogos, para uma malha 64x64pixels (Figura (a)) e uma malha de 256x256pixeis (Figura (b)). As figuras (c) e (d), representam, respectivamente, uma malha completa de 64x64 pixels e 128x128 pixels