Capítulo 3 PRÉ-PROCESSA MENTO DE IMAGENS

Documentos relacionados
José Alberto Quintanilha Mariana Giannotti

Aquisição e Integração de Dados

Correção geométrica de imagens de sensoriamento remoto REGISTRO. Profa. Ligia Flávia Antunes Batista

PROCESSAMENTO DIGITAL DE IMAGENS

FUNDAMENTOS DE CARTOGRAFIA PARA GEOPROCESSAMENTO

Processamento digital de. Distorções

CORREÇÃO GEOMÉTRICA DE IMAGENS DIGITAIS AULA 8

Processamento Digital de Imagens

CORREÇÃO GEOMÉTRICA DE IMAGENS DE S.R.

INSTITUTO NACIONAL DE PESQUISAS ESPACIAIS PROGRAMA DE PÓS-GRADUAÇÃO EM SENSORIAMENTO REMOTO DIVISÃO DE PROCESSAMENTO DE IMAGENS

INTRODUÇÃO AO PROCESSAMENTO DIGITAL DE IMAGENS SENSORIAMENTO REMOTO

Correção Geométrica de Imagens de Sensoriamento Remoto. Julio Cesar Lima d Alge

4- Correção Geométrica de Imagens Orbitais

Sensoriamento remoto 1. Prof. Dr. Jorge Antonio Silva Centeno Universidade Federal do Paraná 2016

PROCESSAMENTO DE IMAGENS

Sensoriamento Remoto I Engenharia Cartográfica. Prof. Enner Alcântara Departamento de Cartografia Universidade Estadual Paulista

GEOPROCESSAMENTO. Correção Geométrica Registro. Prof. Luiz Rotta

Prof o. Ti T a i go B adr d e r Mar a ino n Geoprocessamento D pa p rtam a ent n o de d Ge G oc o iê i nc n ias Instituto de Agronomia - UFRRJ

Sensoriamento Remoto: introdução ao Processamento Digital de Imagens. Patricia M. P. Trindade; Douglas S. Facco; Waterloo Pereira Filho.

Tratamento da Imagem Transformações (cont.)

09/03/2017. O que é Sensoriamento Remoto? Tipos de Sensoriamento Remoto REVISÃO SENSORIAMENTO REMOTO AULA ZERO. Satélites.

ESTRUTURA DE UMA IMAGEM E CALIBRAÇÃO RADIOMÉTRICA AULA 01. Daniel C. Zanotta 14/03/2018

Sensoriamento Remoto: Sistemas de imageamento e níveis de aquisição de dados. Patricia M. P. Trindade; Douglas S. Facco; Waterloo Pereira Filho.

FACULDADE DE ENGENHARIA DE MINAS GERAIS SENSORIAMENTO REMOTO E AEROFOTOGRAMETRIA REVISÃO DE CONTEÚDO. Prof. Marckleuber

Processamento de Imagens Filtragem Digital

REVISÃO SENSORIAMENTO REMOTO AULA ZERO. Daniel C. Zanotta 14/03/2018

O resultado é uma série de "fatias" da superfície, que juntas produzem a imagem final. (Exemplo: o radiômetro dos satélites NOAA gira a uma

CARTOGRAFIA PARA GEOPROCESSAMENTO

INPE-8079-PRE/3894 CARTOGRAFIA PARA GEOPROCESSAMENTO

Curso de Extensão: Noções de Sensoriamento

Sensoriamento remoto 1. Prof. Dr. Jorge Antonio Silva Centeno Universidade Federal do Paraná 2016

Sensoriamento Remoto I Engenharia Cartográfica. Prof. Enner Alcântara Departamento de Cartografia Universidade Estadual Paulista

Laboratório 2. Cartografia e Integração de Dados

FUNDAMENTOS DE CARTOGRAFIA PARA GEOPROCESSAMENTO. Julio Cesar Lima d Alge

Questões concursos

Laboratório 2. Disciplina. Introdução ao Geoprocessamento SER 300. Prof. Dr. Antonio Miguel Vieira Monteiro

1 1 1 *1/ *1/ *1/49

Formação de Imagens de SAR

UNIVERSIDADE ESTADUAL DO OESTE DO PARANÁ UNIOESTE CAMPUS UNIVERSITÁRIO DE CASCAVEL CURSO DE CIÊNCIA DA COMPUTAÇÃO LISTA DE EXERCÍCIOS

Processamento de Imagem. Prof. MSc. André Yoshimi Kusumoto

Mapeamento do uso do solo para manejo de propriedades rurais

Radiômetros imageadores

PMI 3331 GEOMÁTICA APLICADA À ENGENHARIA DE PETRÓLEO

UD VI. Retificação / Normalização de Imagens Digitais

1. Introdução à Topografia

FUNDAMENTOS DE CARTOGRAFIA PARA GEOPROCESSAMENTO

E- Correção Geométrica

3 Técnicas de medição do escoamento

Processamento Digital de Imagens

CORREÇÕES RADIOMÉTRICAS

Processamento Digital de Imagens - PDI

SENSORES REMOTO UMA ABORDAGEM PRÁTICA NO LEVANTAMENTO FLORESTAL

MNT: MODELAGEM NUMÉRICA DE TERRENOS

Ortorretificação: um passo a mais no processamento de imagens CBERS

Sistemas de Informações Geográficas

Classificação e Exemplos de Sistemas Sensores. Disciplina: Sensoriamento Remoto Prof. Dr. Raoni W. D. Bosquilia

Restauração de imagens CCD/CBERS-2 pelo método de Richardson-Lucy modificado. Paulo Eduardo Ubaldino de Souza 1

PROCESSAMENTO DIGITAL DE IMAGENS. Thales Sehn Körting

Mapeamento do uso do solo

Correção geométrica de Imagens. Emiliano Castejon Leila Fonseca 2012

Sistemas de Processamento de imagens de Sensoriamento remoto: perspectiva histórica e preparação de imagens para o usuário

O resultado é uma série de "fatias" da superfície, que juntas produzem a imagem final. (Exemplo: o radiômetro dos satélites NOAA gira a uma

Computação Gráfica - 10

Geoprocessamento e sensoriamento remoto como ferramentas para o estudo da cobertura vegetal. Iêdo Bezerra Sá

Tecnologias de sensoriamento remoto para a identificação e monitoramento das mudanças no uso e ocupação dos solos urbanos

Disciplina Geoprocessamento Aplicadoao Planejamento

Programa de Pós-Graduação em Ciências Cartográficas. Enner Alcântara Departamento de Cartografia Universidade Estadual Paulista Presidente Prudente

CAPITULO 2 CARTOGRAFIA E INTEGRAÇÃO DE DADOS.

RESTAURAÇÃO E RECONSTRUÇÃO DE IMAGENS. Nielsen Castelo Damasceno

Compreendendo os efeitos da projeção nas imagens aéreas. Fotogrametria e Fotointerpretação Prof. Dr. Raoni W. D. Bosquilia

Ecologia de Paisagem Conceitos e métodos de pesquisa 2012

Curvas HERMITE. Figura 1 - Efeito oscilatório dos polinômios: [PAVLIDIS, 1984]

PRODUÇÃO CARTOGRÁFICA UD 4 ATUALIZAÇÃO

Câmeras Fotogramétricas. Fotogrametria e Fotointerpretação Prof. Dr. Raoni W. D. Bosquilia

METODOLOGIA PARA O LEVANTAMENTO PRELIMINAR DE ÁREAS DE SOLOS EXPOSTO UTILIZANDO O SATÉLITE LANDSAT 5 TM+

ATUALIZAÇÃO CARTOGRÁFICA POR IMAGENS DE SATÉLITE. - Considerações Teóricas e Possibilidades de Implementação -

27/03/2017 OPERAÇÕES ARITMÉTICAS NDVI E RAZÃO DE BANDAS AULA 04 RAZÃO DE BANDAS. Ex: Realce de minerais de Ferro = ρ v / ρ A

Filtragem. pixel. perfil de linha. Coluna de pixels. Imagem. Linha. Primeiro pixel na linha

LABORATÓRIO DE GEOPROCESSAMENTO DIDÁTICO. Professora: Selma Regina Aranha Ribeiro

Sensoriamento Remoto II

PARTE 2 INTRODUÇÃO AO SIG/GIS. Mundo Real. Curso de Geoprocessamento: Prof. Alzir Felippe B. Antunes

PLANO DE ENSINO ANO 2016

Visão Computacional. Alessandro L. Koerich. Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR)

Sensoriamento remoto x uso do solo x transportes

Avaliação da qualidade geométrica das imagens TM-LANDSAT. Antônio José Ferreira Machado e Silva 1 Júlio Cesar Lima d Alge 2

GEOPROCESSAMENTO. Bases conceituais e teóricas. Prof. Luiz Henrique S. Rotta

9º Encontro Técnico DER-PR

Aerotriangulação Digital

Aula 6 - Processamento de Imagens de Radar

CAPÍTULO V 5 CONCLUSÕES E RECOMENDAÇÕES 5.1 SÍNTESE DO TRABALHO DESENVOLVIDO

PROCESSAMENTO DIGITAL DE IMAGENS (SERP11) CONCEITOS BÁSICOS DE SR REPRESENTAÇÃO DAS IMAGENS DIGITAIS CALIBRÃÇÃO RADIOMÉTRICA. Daniel C.

6. FILTRAGEM DE FREQUÊNCIAS ESPACIAIS

PROCESSAMENTO DIGITAL DE IMAGENS (SERP11) TRANSFORMAÇÕES LINEARES: COMPONENTES PRINCIPAIS, TASSELED CAP, IHS. Daniel C. Zanotta

Compressão de Imagens Usando Wavelets: Uma Solução WEB para a Codificação EZW Utilizando JAVA. Utilizando JAVA. TCC - Monografia

CAPÍTULO 4 SEGMENTAÇÃO DE IMAGENS SAR

Conceitos e Classificação da Fotogrametria. Fotogrametria e Fotointerpretação Prof. Dr. Raoni W. D. Bosquilia

Programa 25/02/2019. Objetivo Geral: Processamento Digital de Imagens I Turma A. Objetivos Específicos:

Sensoriamento Remoto Aplicado à Geografia Características das Imagens

CADASTRO AMBIENTAL RURAL USANDO FOTOS DE DRONE FOTOGRAMÉTRICO

Transcrição:

Capítulo 3 PRÉ-PROCESSA MENTO DE IMAGENS 3.1 - INTRODUÇÃO 3.2 - CORREÇÃO RADIOMÉTRICA 3.2.1 - Restauração de Imagens 3.2.2 - Correção de Linhas Ruins 3.2.3 - Correção de Pixels Isolados 3.3 - CORREÇÃO GEOMÉTRICA Registro de Imagens 3.4 - CORREÇÃO ATMOSFÉRICA

3.1 - Introdução As imagens brutas, ou seja, sem nenhum tipo de correção, contém algumas distorções radiométricas e geométricas que devem ser corrigidas antes de serem usadas nas aplicações. Esta etapa de correção das distorções é conhecida como pré-processamento. A utilização de técnicas de pré-processamento constitui uma das etapas mais importantes do processamento digital. Do mesmo modo que as técnicas de realce enfatizam feições de interesse na imagem elas também realçam as imperfeições na mesma. Sendo assim, é conveniente que ruídos ou outras imperfeições intrínsecas nas cenas sejam removidas ou atenuadas antes da aplicação de técnicas de realce. Muitas vezes, as imperfeições são inerentes e dependentes do sistema sensor utilizado para gerar a imagem digital. Isto faz com que algoritmos específicos para remoção ou redução de ruídos sejam desenvolvidos, dependendo do tipo de ruído presente. Embora alguns tipos de distorções sejam corrigidas na estação de recepção de imagens há ainda necessidade de se realizar algumas correções antes da fase de processamento de imagens, propriamente dita. Sabe-se que algumas distorções, tais como as provocadas pelo efeito atmosférico, são muito complexas e difíceis de serem corrigidas. Desta forma, o objetivo deste capítulo é apresentar algumas técnicas de correções simples e práticas que possam ser usadas pelo usuário de maneira fácil. 3.2 - Correções Radiométricas Há várias formas de degradação ou ruídos radiométricos em uma imagem. Os ruídos podem ser classificados como do tipo coerente e aleatório. Ruídos coerentes são aqueles que mostram um padrão sistemático, e aleatórios são aqueles que não tem nenhum padrão. 3.2.1 - Restauração de Imagens A resolução de imagens obtidas por sensores a bordo de satélites é degradada por fontes tais como: difração ótica, tamanho do detetor e filtragem eletrônica. Como conseqüência, a resolução espacial efetiva é, em geral, pior que a resolução espacial nominal, que corresponde a projeção do detetor na superfície da terra e não leva em conta as imperfeições do sensor. O efeito do sensor sobre a imagem é o de suavização (filtro passa-baixas) dos detalhes. A restauração de imagens é uma técnica para reduzir as distorções introduzidas pelos sensores. Através de técnicas de restauração, é possível melhorar a resolução efetiva do sensor até um certo nível. Para o projeto do filtro de restauração deve-se conhecer o comportamento da resposta do sensor, que é descrito pela função de espalhamento pontual (FEP) no domínio do espaço, ou função de transferência de modulação (MTF), no domínio da freqüência espacial. Como o processo de restauração é baseada nas características do sensor, para cada sensor e banda espectral existe um filtro adequado. O efeito do processo de restauração sobre a imagem é o de realce das feições na imagem tais como ruas, estradas, bordas, ou seja, feições relacionadas com os detalhes na imagem (componentes em altas freqüências do sinal). Os métodos de restauração se diferem dos métodos de realce convencionais, no sentido que os métodos de restauração usam informações do próprio sensor para fazer as correções, que faz com que estes métodos sejam formalizados em cima de critérios objetivos. Por outro lado, os métodos de realce usam critérios subjetivos (olho humano) que é difícil de ser modelado. 37

Os processos de restauração e reamostragem espacial podem ser combinados em uma única operação de filtragem (passa altas). Ou seja, o filtro de interpolação ideal pode ser modificado para levar em conta o processo de restauração. Desta forma, o custo computacional e o efeito de borramento introduzido pelo processo de interpolação, quando realizado separadamente, são reduzidos. Assim, pode-se gerar imagens restauradas em diferentes tamanhos de pixels (Fonseca e Mascarenhas, 1993). 3.2.1.1 - O problema de restauração de imagens O problema de restauração de imagens consiste em recuperar uma imagem que tem sido degradada tanto pela resolução limitada do sensor como por ruídos inseridos no processo de geração das imagens. De um modo geral, o problema de restauração consiste em recuperar a imagem original da melhor forma possível (Mascarenhas e Velasco, 1989). Uma das formas de tratar o problema é considerar que o sistema de imageamento possa ser representado por um sistema linear com a adição de ruído independente do sinal: g = f * h + r, (3.1) onde f representa a imagem, g é a imagem, h é a função de espalhamento pontual (PSF) do sensor e r é o ruído aditivo. O símbolo * denota a operação de convolução. Este modelo, embora simplificado tem mostrado, na prática, resultados bastante satisfatórios em muitas situações. Na ausência de ruído e tomando a transformada de Fourier de ambos os lados da Equação (3.1), verifica-se que: G = F. H, (3.2) onde, G, F e H são as transformadas de Fourier de g, f e h, respectivamente. H é chamada de função de transferência de modulação (MTF) do sensor. O objetivo da restauração de imagens é projetar um filtro P, tal que quando multiplicado pela Equação (3.2), o efeito de H é cancelado, ou seja: H(u). P(u) = 1 u u c onde u c é a freqüência de corte de H. Uma escolha óbvia do filtro de restauração é o filtro inverso: P(u) = 1/H(u) u u c. (3.3) Entretanto, o filtro inverso é instável, pois nas freqüências altas onde a resposta do sensor, H, tem valores próximos de zero, o filtro de restauração, P, tem valores tendendo ao infinito. Neste caso, o filtro não pode ser projetado na prática. O método do filtro inverso modificado (MIF) é uma solução para este problema. O filtro MIF aproxima-se da solução do filtro inverso e ao mesmo tempo tenta controlar a instabilidade gerada pelos zeros da função de transferência de modulação. 38 Processamento Digital de Imagens

A idéia do método MIF é escolher uma resposta desejada, D, como resposta do sensor de tal forma que: D = H. P. (3.4) A função D deve ter um comportamento bem melhor do que a função H. Desta forma, o filtro P pode ser estimado: P(u) = D(u)/H(u) u u c. (3.5) 3.2.2 - Correção de Linhas Ruins A presença de linhas "ruins" é devido à má qualidade dos valores de níveis de cinza dos pixels ou mesmo da perda total de informação ao longo de uma linha (ou coluna) de uma determinada banda. Estes problemas são provocados pela saturação de algum detector ou problemas na aquisição, registro, transmissão ou processamento de dados em terra. Uma forma simples de solucionar este problema é estimar os valores dos pixels da linha com defeito usando os valores dos pixels das linhas anterior e posterior (cima e abaixo). Este método se baseia na hipótese da existência de correlação espacial entre os dados. Ou seja, pixels próximos entre si tendem a ter valores parecidos ou similares. O método mais usado para substituir ou recompor os pixels degradados, é através da simples interpolação dos valores médios dos pixels correspondentes das linhas anterior e posterior. Pode-se também tomar a média local destas linhas, e caso a diferença dessas médias seja maior que um limiar, o ponto ou os pontos ruidosos têm seus valores adicionado dessa diferença. Mather (1999) apresenta alguns métodos de correção. 3.2.3 - Correção de Pixels Isolados Pixels isolados deteriorados por ruído e distribuídos aleatoriamente na imagem são bastante comuns. Os pixels ruidosos podem ser substituídos pelas médias dos vizinhos mais próximos, desde que haja segurança de que estes não esteja deterioradas pelo ruído. Filtros não lineares como o filtro da mediana e filtros morfológicos podem ser usados nestes casos. 3.3 - Correções Geométricas A primeira razão para a realização de correção geométrica de imagens é a existência de distorções sistemáticas introduzidas durante a aquisição das imagens. Portanto, a correção geométrica trata, prioritariamente, da remoção dos erros sistemáticos presentes nas imagens. Outro aspecto importante são os estudos multi-temporais tão comuns à área de Sensoriamento Remoto. Eles requerem que os dados de imagem sejam registrados para que se possa interpretar as suas respostas para uma certa posição no espaço. Na verdade, a justificativa mais contemporânea para a correção geométrica de imagens é a integração com mapas e outras informações. Sensoriamento Remoto, por si só, já não faz tanto sentido. Há muito tempo os agrônomos deixaram de se preocupar apenas em separar uma cultura de outra numa imagem; eles agora pensam em produtividade agrícola, que, além dos tipos de cultura 39

interpretados na imagem, depende do tipo de solo (mapa de solos), do teor de certos nutrientes no solo (medição de amostras) e da declividade (carta topográfica). Alguns requerimentos são fundamentais para que se trabalhe bem com correção geométrica de imagens. Em primeiro lugar, para que se possa pensar em correção geométrica, há que se conhecer os erros que interferem no processo de formação das imagens. A escolha do modelo matemático mais adequado ao tratamento de cada caso depende fortemente desse conhecimento. Além disso, um SIG deve sempre propiciar ferramentas para que o resultado de uma correção geométrica possa ser avaliado e, consequentemente, validado. De uma maneira geral, o processo de correção geométrica de imagens compreende três grandes etapas. Começa-se com uma transformação geométrica, também denominada mapeamento direto, que estabelece uma relação entre coordenadas de imagem (linha e coluna) e coordenadas geográficas (latitude e longitude). Trata-se de uma etapa em que se eliminam as distorções existentes e se define o espaço geográfico a ser ocupado pela imagem corrigida. Em seguida, faz-se o mapeamento inverso, que inverte a transformação geométrica usada no mapeamento direto, permitindo que se retorne à imagem original para que se definam os níveis de cinza que comporão a imagem corrigida. Esta definição de níveis de cinza ocorre na última etapa, chamada de reamostragem, que nada mais é que uma interpolação sobre os níveis de cinza da imagem original. 3.3.1 Fontes de distorções geométricas A discussão das fontes de erro se atém às imagens orbitais dos sensores MSS (Landsat), TM (Landsat), HRV (Spot) e AVHRR (NOAA). Um dos efeitos principais é causado pela rotação da Terra (skew), ou seja, pelo movimento relativo entre a Terra e o satélite. Na medida em que o satélite desloca-se para o sul, a Terra gira de oeste para leste. Portanto, é necessário compensar o posicionamento das varreduras, o qual deve ser deslocadas para leste. Por isso, as imagens corrigidas apresentam aquele aspecto de paralelogramo. No caso do sensor TM, Landsat-5, a compensação desse erro corresponde a um deslocamento de cerca de um pixel por varredura. Outro efeito importante são as chamadas distorções panorâmicas, que afetam, principalmente, os sensores que trabalham com um campo de visada amplo, como é o caso do AVHRR. A distorção panorâmica é originada pela variação do IFOV (instantaneous field of view) dentro do campo de visada. Como o IFOV corresponde a um ângulo fixo, ele cobre dimensões diferentes no terreno em função da inclinação. Isto faz com que a dimensão coberta no terreno no nadir seja menor que aquela coberta nas bordas da imagem. Por isso diz-se que a distorção panorâmica causa compressão de dados nas regiões distantes do nadir. Nas imagens AVHRR esse efeito faz com que um pixel na borda da imagem corresponda a uma extensão quase três vezes maior que a do pixel no nadir. A curvatura da Terra gera um efeito análogo ao anterior. Na verdade, ela acentua o efeito da distorção panorâmica, fazendo com que haja uma compressão de dados maior nas bordas da imagem. Por isso, a curvatura da terra deve ser tratada como parte integrante da distorção panorâmica. Nas imagens AVHRR a curvatura da Terra, associada à distorção panorâmica propriamente dita, faz com que um pixel na borda da imagem corresponda a uma extensão quatro vezes maior que a do pixel no nadir. Outro efeito, que se origina por questões de movimento relativo, é o chamado arrastamento da imagem durante uma varredura. Este efeito afeta apenas os sensores que operam por varredura mecânica, pois o satélite move-se ao longo de sua órbita durante o tempo decorrido para a execução de uma varredura. Trata-se do efeito zigue-zague, comum 40 Processamento Digital de Imagens

nas imagens MSS. O sensor TM já possui um dispositivo que compensa esse efeito fazendo com que o espelho do sensor olhe para trás durante o movimento de varredura, compensando o movimento do satélite ao longo da sua órbita. O sensor HRV, que opera por varreduras eletrônicas, não sofre esse efeito. Somam-se a esses efeitos aqueles oriundos de variações de efemérides do satélite (posição e velocidade) e a de atitude da plataforma (roll, pitch, yaw). É importante ter em mente que nem sempre é possível individualizar todos esses efeitos. Uma superposição entre varreduras sucessivas pode ser causada por uma variação de velocidade do satélite, mas pode também ser explicada por uma variação de pitch (giro em torno de um eixo perpendicular à órbita do satélite). 3.3.2 Transformação geométrica A transformação geométrica ou mapeamento direto pode ser executada através de três modelos matemáticos distintos: o modelo de correções independentes, o modelo fotogramétrico e o modelo polinomial. Apresenta-se a seguir uma descrição sucinta de cada modelo, enfatizando-se as vantagens, desvantagens e aplicabilidade. Modelo de correções independentes O modelo de correções independentes, como o próprio nome sugere, trata de forma independente as diversas distorções sistemáticas. Tudo é feito no sistema de referência da imagem, onde os pixels são reposicionados de acordo com a modelagem de cada efeito visto de modo isolado. Há duas grandes desvantagens na aplicação desse modelo. Em primeiro lugar, conforme o exemplo mencionado na página anterior sobre a superposição de duas varreduras consecutivas, há correlações entre as fontes de distorção, de modo que seus efeitos nem sempre são separáveis. Com isso, o resultado da correção geométrica não é muito bom. Além disso, como tudo se passa no sistema de referência da imagem, não se consegue estabelecer uma relação com as coordenadas geográficas sem que haja um procedimento externo. O modelo de correções independentes foi muito usado em imagens MSS dos três primeiros satélites da série Landsat. Modelo fotogramétrico O modelo fotogramétrico inspira-se no uso das equações de colinearidade aplicadas em fototriangulação. Com base nos dados de efemérides do satélite, descobre-se sua posição num certo instante de aquisição de um dado pixel. Com as informações da atitude e dos parâmetros do sistema de imageamento, define-se a direção de visada para aquele instante. Tem-se, então, um ponto e uma direção no espaço, os quais definem uma reta. Calcula-se a interseção dessa reta com a figura matemática da Terra, no caso um elipsóide de referência. Como resultado, chega-se aos valores de latitude e longitude associados ao instante de aquisição de um certo pixel, estabelecendo-se, assim, a relação entre o sistema de referência da imagem e as coordenadas geográficas. O modelo fotogramétrico não faz hipóteses sobre a independência das diversas fontes de erro e permite o cálculo das coordenadas geográficas sem que haja necessidade de um procedimento externo. Deste modo, o referenciamento da imagem a um sistema de projeção cartográfica pode ser feito sem grandes dificuldades. O modelo fotogramétrico tem sido usado para quase todas as imagens geradas pelos sensores dos satélites Landsat e Spot. 41

Modelo polinomial (registro de imagens) O modelo polinomial consiste de uma função polinomial cujos parâmetros são determinados a partir das coordenadas de pontos de controle identificados tanto no sistema de referência da imagem como no sistema de referência da base de dados. É o modelo disponível em quase todos os sistemas para o registro de imagens. Como se trata de um modelo que não usa informações inerentes à aquisição da imagem e nem faz distinção sobre o status ou nível de correção geométrica da imagem, muitos autores não o consideram como um modelo de correção geométrica e preferem referir-se a ele como um modelo de registro. O desempenho deste modelo depende de uma boa distribuição de pontos de controle, da precisão das coordenadas dos pontos de controle e, o mais importante, da adequação da função polinomial escolhida ao que se pretende modelar. 3.3.3 Mapeamento Inverso Se o mapeamento direto é executado pela transformação geométrica T, o mapeamento inverso fica definido pela transformação T -1. A figura abaixo ilustra essa relação entre os mapeamentos direto e inverso. O mapeamento inverso se faz necessário porque o mapeamento direto apenas define a geometria e o espaço geográfico da imagem corrigida. Os níveis de cinza que comporão a imagem corrigida residem na imagem de entrada. Baseado fortemente na idéia de otimização computacional, o mapeamento inverso recupera a informação sobre os níveis de cinza que definirão o valor a ser associado a uma certa posição na imagem corrigida. É um procedimento imprescindível para a realização da última etapa da correção geométrica, descrita a seguir. p Y J? T pixel l T -1 I X Relação entre os mapeamentos direto e inverso Reamostragem (Interpolação) A reamostragem é a última etapa do processo de correção geométrica. Ela usa a informação sobre níveis de cinza conseguida pelo mapeamento inverso e realiza uma interpolação para definir os valores de nível de cinza que comporão a imagem corrigida. Os métodos mais tradicionais de reamostragem são: vizinho mais próximo, que usa o nível de cinza mais próximo ao resultado do mapeamento inverso; bilinear, que usa três interpolações 42 Processamento Digital de Imagens

lineares sobre os quatro pixels que cercam o resultado do mapeamento inverso, duas ao longo das linhas e uma na direção das colunas; convolução cúbica, que usa cinco interpolações polinomiais do terceiro grau sobre os dezesseis pixels que cercam o resultado do mapeamento inverso, quatro ao longo das linhas e a quinta na direção das colunas. 3.3.4 Registro de Imagens O uso de transformações polinomiais do 1 o e 2 o graus é bastante comum no registro de imagens. As transformações polinomiais fazem o vínculo entre as coordenadas de imagem e as coordenadas do sistema de referência (geográficas ou de projeção) através de pontos de controle. Pontos de controle são feições passíveis de identificação na imagem e no terreno, ou seja, são feições homólogas cujas coordenadas são conhecidas na imagem e no sistema de referência. Cruzamentos de estradas, pistas de aeroportos e confluência de rios são candidatos naturais a pontos de controle. A determinação dos parâmetros da transformação polinomial selecionada é feita através da resolução de um sistema de equações. Para que esse sistema de equações possa ser resolvido as coordenadas dos pontos de controle devem ser conhecidas tanto na imagem de ajuste (imagem a ser registrada) como no sistema de referência. As coordenadas de imagem (linha, coluna) são obtidas quando o usuário clica sobre a feição na imagem. As coordenadas de referência são usualmente obtidas através de mapas confiáveis que contenham as feições homólogas usadas como pontos de controle. Os vários sistemas disponíveis também aceitam medições feitas diretamente no terreno (GPS), dados vetoriais existentes e imagens geo-referenciadas como fontes de extração de coordenadas de referência. Uma vez determinados os n pontos de controle e selecionada a transformação polinomial, um sistema de 2n equações é montado para resolver 6 ou 12 parâmetros, dependendo do polinômio ser de 1 o ou 2 o grau. Assim, conclui-se que o número mínimo de pontos de controle é 3 para o polinômio de 1 o grau e 6 para o polinômio de 2 o grau. O número mínimo de pontos de controle representa a situação de um sistema de equações determinado, no qual o número de equações coincide com o número de incógnitas a calcular. Entretanto, como as coordenadas medidas dos pontos de controle estão sujeitas a erros, convém usar um número de pontos maior que o mínimo. Nesse caso, trabalha-se com um sistema de equações sobre-determinado, que tem mais equações que incógnitas e permite tratar e distribuir os erros de medição dos pontos de controle. Em termos práticos aconselhase o uso de 6 pontos de controle para o polinômio de 1 o grau e 10 pontos de controle para o polinômio de 2 o grau. Deve-se ter em mente também que a distribuição dos pontos de controle na área a ser registrada é de suma importância, pois as transformações polinomiais tendem a se comportar adequadamente apenas na região onde se encontram os pontos de controle. 3.4 - Correção Atmosférica A atmosfera influi na resposta de um alvo de dois modos. A absorção atmosférica subtrai valores de brilho de energia radiante do alvo, enquanto o espalhamento atmosférico adiciona valores à resposta original. Geralmente, nas imagens de sensores remotos o caráter aditivo do espalhamento atmosférico é o mais sério efeito, cuja magnitude é inversamente proporcional 43

ao comprimento de onda. Ou seja, os comprimentos de ondas mais curtos são os mais afetados. O modelamento do efeito atmosférico envolve o modelamento dos processos de espalhamento e absorção da atmosfera, que é muito complexo. Além disso, deve-se ter em mãos dados auxiliares tais como umidade relativa, visibilidade, etc, que nem sempre são disponíveis. O mais prático e usual é fazer alguma aproximações e usar métodos mais simples. O método mais comum para minimizar o efeito atmosférico consiste em subtrair o valor digital mais baixo encontrado entre os "pixels" de uma banda dos "pixels" restantes na imagem. Geralmente, os valores de brilho mais baixos presentes em uma cena estão associados às respostas de áreas com sombreamentos de relevo ou água limpa (lagos, rios, etc). Desta forma considera-se que os valores encontrados nestes alvos são os provenientes da contribuição aditiva da atmosfera e, necessariamente, devem ser subtraídos dos valores digitais dos "pixels" restantes. Este tipo de correção é particularmente importante quando se utiliza técnicas de realce por divisão de canais. 44 Processamento Digital de Imagens