MÉTODO IHS PARA FUSÃO DE IMAGEM TM COM FOTOGRAFIA AÉREA



Documentos relacionados
APLICAÇÃO E ANÁLISE DAS TÉCNICAS DE FUSÃO IHS E COMPONENTES PRINCIPAIS EM IMAGENS DO SATÉLITE CBERS-2B MULTISSENSORES HRC/CCD RESUMO ABSTRACT

COMPARAÇÃO VISUAL ENTRE FUSÃO DE IMAGENS CBERS II B/CCD E LANDSAT 5/TM UTILIZANDO A PANCROMÁTICA CBERS II B/HRC EM SOFTWARE LIVRE

Sensoriamento Remoto II

Avaliação de técnicas de fusão aplicadas à imagem Quickbird. Carolina Moutinho Duque de Pinho 1 Camilo Daleles Rennó 1 Hermann Johann Heinrich Kux 1

Análise comparativa de técnicas de fusão de imagens CBERS-2B (CCD e HRC) utilizando o software ArcGIS

Procedimento para minimização do efeito de alta freqüência resultante de fusão entre bandas TM Landsat e pancromáticas Spot e Quickbird

Um método simplificado de fusão de imagens. C.P Curitiba-PR- Brasil (centeno,

Importância da alteração do Histograma de Imagem de Alta Resolução (PAN) para fusão de imagens digitais pelo método de componentes principais

Fusão de imagens IRS-1C e Landsat 5 utilizando método aditivo de sub-bandas

EXTRAÇÃO DE TELHADOS DE BARRO EM IMAGENS DE ALTA RESOLUÇÃO CLAY ROOF EXTRACTION IN HIGH RESOLUTION IMAGES

RESOLUÇÃO TEMÁTICA DE IMAGEM HÍBRIDA RESULTANTE DA FUSÃO SPOT-LANDSAT RESUMO ABSTRACT

Simulação de uma banda pancromática para o sensor TM (Landsat 5), utilizando filtro combinado de restauração e interpolação.

Universidade de Brasília IG/UnB Campus Universitário Darcy Ribeiro ICC Sul Brasília-DF, Brasil

Fusão de imagens de Sensoriamento Remoto utilizando a Transformada Wavelet Haar

1.1 Fusão de imagens de alta resolução espacial

COMPARAÇÃO ENTRE OS MÉTODOS DE FUSÃO IHS, PRINCIPAL COMPONENTS

Aplicação e avaliação de técnicas de fusão em imagens Ikonos e GeoEye

Fusão de imagens dos sensores HRC e CCD para a elaboração de uma carta imagem do município de Ladário, MS

FUSÃO DE IMAGEM PELO MÉTODO IHS UTILIZANDO IMAGEM DO SATÉLITE CBERS 4 SENSOR MUX E ORTOFOTO RESUMO ABSTRACT

José Alberto Quintanilha Mariana Giannotti

Fusão de imagens aplicada a estudos urbanos: avaliação de diferentes técnicas em imagens WorldView-2

EXPERIMENTOS EM FUSÃO DE IMAGENS DE ALTA RESOLUÇÃO

Implementação de um Sistema de Fusão de Imagens no Modelo

EXTRAÇÃO DE BORDAS EM IMAGEM DE ALTA RESOLUÇÃO UTILIZANDO TÉCNICAS DE PROCESSAMENTO DE IMAGEM

Fusão de Imagens CBERS 2B: CCD-HRC. Fernando Leonardi 1 Cleber Gonzales de Oliveira 1 Leila Maria Garcia Fonseca 1 Cláudia Maria de Almeida 1

Um método simplificado de fusão de imagens para fins de interpretação visual

Fusão de Dados: A Nova Tendência em Processamento Digital de Imagens

Análise da contribuição de fusão para a detecção de bordas aplicada às imagens Landsat-8/OLI

INTRODUÇÃO AO PROCESSAMENTO DIGITAL DE IMAGENS SENSORIAMENTO REMOTO

Integração de Dados Ópticos e SRTM: Região de Brasília DF

Técnicas de fusão aplicadas a imagens do satélite ALOS

Avaliação da viabilidade de classificação de imagens fusionadas pelo uso de método de análise estatística

Redução de Bruma Atmosférica Utilizando Técnicas de Processamento de Imagem. Ivan Dornelas Falcone de Melo 1 Ana Lúcia Bezerra Candeias 1

GERAÇÃO DE UMA CARTA IMAGEM DO MUNICÍPIO DE SOUSA/PB PELO MÉTODO DE FUSÃO IHS DOS DADOS DO SENSOR PAN DO SATÉLITE CBERS-4

PROCESSAMENTO DE IMAGENS

PROCESSAMENTO DIGITAL DE IMAGENS

Motivação. Objetivos. O Problema. Integração de dados de Sensoriamento Remoto e SIG. Utilização de técnicas de PDI. Proposta de metodologia sem custo

Fusão de imagens MODIS com NDVI do Landsat para a classificação de áreas de cultivo de Soja

09/03/2017. O que é Sensoriamento Remoto? Tipos de Sensoriamento Remoto REVISÃO SENSORIAMENTO REMOTO AULA ZERO. Satélites.

REVISÃO SENSORIAMENTO REMOTO AULA ZERO. Daniel C. Zanotta 14/03/2018

Geoprocessamento e sensoriamento remoto como ferramentas para o estudo da cobertura vegetal. Iêdo Bezerra Sá

24/05/2011. O que significa PDI? I- Introdução

Análise comparativa da aplicação de transformações radiométricas e técnicas de fusão de imagens em área urbana

Análise da distribuição de copas de Araucária (Araucaria angustifolia Bert. O. Ktz.) a partir da fusão de imagens HRC-CCD/CBERS-2B

Qualidade Radiométrica das Imagens Sensor ADS40

O resultado é uma série de "fatias" da superfície, que juntas produzem a imagem final. (Exemplo: o radiômetro dos satélites NOAA gira a uma

Correção do fenômeno NODATA na transformação de 16 para 8 bits em imagens QuickBird.

PMI 3331 GEOMÁTICA APLICADA À ENGENHARIA DE PETRÓLEO

ANALYSIS IMAGE SENSOR FUSION COMPARATIVE ORBITAL CCD and HRC IHS USING AND MAIN COMPONENTS IN THE REGION OF THREE URBAN COUNTY LAKES MS / BR

GERAÇÃO DE IMAGEM SINTÉTICA COM MENOR PROPORÇÃO DE NUVENS A PARTIR DE IMAGENS MULTITEMPORAIS

Fusão de imagens utilizando transformada discreta de wavelet, pirâmide morfológica e IHS

Multiplicação e Adição de Imagens Landsat no Realce de Feições da Paisagem

Resoluções das Imagens fotogramétricas e digitais. Fotogrametria e Fotointerpretação Prof. Dr. Raoni W. D. Bosquilia

Processamento Digital de Imagens SER Prática de Laboratório

processos de formação e suas inter-relações com o ambiente. As diversas combinações de fatores (clima, relevo,

Sensoriamento Remoto II

LAYER: Software para Extração de Feições em um Mapa Topográfico

REGISTRO AUTOMÁTICO DE IMAGENS

ESTUDO DA IDENTIFICAÇÃO DE TELHADOS DE CERÂMICA EM IMAGEM DE SATÉLITE DE ALTA RESOLUÇÃO NA CIDADE DE ITAQUITINGA-PE

Discriminação de classes do uso e cobertura da terra do Parque Nacional de Brasília utilizando diferentes métodos de fusão de imagens do Landsat-8

PROCESSAMENTO DE IMAGENS DIGITAIS PARA VISÃO ROBÓTICA. Digital Image Processing for Robotic Vision

Tratamento da Imagem Transformações (cont.)

Aplicação do modelo de cores IHS na detecção de plantas aquáticas imersas

10 FÓRUM DE EXTENSÃO E CULTURA DA UEM COMPARAÇÃO DE FUSÃO ENTRE AS IMAGENS DO SATÉLITE RAPID EYE, CBERS E SPOT.

PROCESSAMENTO DIGITAL DE IMAGENS (SERP11) TRANSFORMAÇÕES LINEARES: COMPONENTES PRINCIPAIS, TASSELED CAP, IHS. Daniel C. Zanotta

PROGRAMA DE ENSINO. 3 quadrimestre Área de Concentração AQUISIÇÃO, ANÁLISE E REPRESENTAÇÃO DE INFORMAÇÕES ESPACIAIS

Processamento Digital de Imagens

RESTAURAÇÃO RADIOMÉTRICA DE FAIXAS E LISTRAS DE IMAGENS CCD DO CBERS 2B COM MÁSCARAS

Campus de Presidente Prudente PROGRAMA DE ENSINO. Área de Concentração AQUISIÇÃO, ANÁLISE E REPRESENTAÇÃO DE INFORMAÇÕES ESPACIAIS

Sensoriamento remoto x uso do solo x transportes

Avaliação de transformadas wavelets para fusão de imagens SPOT 4 e comparação de classificações de uma imagem fusionada e de uma imagem SPOT 5

RESTAURAÇÃO RADIOMÉTRICA DE FAIXAS E LISTRAS DE IMAGENS CCD DO CBERS 2B COM MÁSCARAS

1. Introdução: um breve histórico

O resultado é uma série de "fatias" da superfície, que juntas produzem a imagem final. (Exemplo: o radiômetro dos satélites NOAA gira a uma

Universidade do Estado de Minas Gerais Curso de Sistemas de Informações. Multimídia. A Imagem (Parte I)

Processamento digital de. Distorções

PROCESSAMENTO DE IMAGENS COLORIDAS. Nielsen Castelo Damasceno

Simulação de Imagens baseada em Função de Transferência de Modulação. Giovanni de Araujo Boggione Leila Maria Garcia Fonseca N. L.

Período: 5 Carga Horária: 45 horas. UFPR Departamento de Geomática Prof. Jorge Centeno 2013 centenet

COMPARAÇÃO ENTRE MÉTODOS DE CORREÇÃO ATMOSFÉRICA EM IMAGENS MULTIESPECTRAIS LANDSAT 8 OLI

Análise das técnicas de fusão de imagens aplicadas ao satélite CBERS-2B (CCD-HRC) Claudinei Rodrigues de Aguiar¹ Danielli Batistella¹

Fusão entre diferentes sensores para a classificação sucessional em pequenas propriedades rurais

Tecnologias de sensoriamento remoto para a identificação e monitoramento das mudanças no uso e ocupação dos solos urbanos

COMPARAR O USO DE IMAGENS DE SATÉLITE DE MÉDIA RESOLUÇÃO COM IMAGENS DE ALTA RESOLUÇÃO

GEOPROCESSAMENTO. Sensoriamento Remoto. Prof. Luiz Rotta

Morfologia matemática na extração de bordas de uma imagem IKONOS-2 RGB fusionada

Mapeamento e análise da carta imagem da cidade de Macapá-AP obtida através da fusão das imagens do satélite CBERS-2B multisensor CCD e HRC

SENSOREAMENTO REMOTO AULA1

Correção geométrica de imagem Quickbird para áreas urbanas utilizando modelos geométricos generalizados e dados de laser scanning

Georreferenciamento. Prof. Dr. Silvio F. Barros Ferraz Prof. Dr. Carla C. Cassiano Vinícius Guidotti de Faria Depto. Ciências Florestais ESALQ/USP

FILTROS PARA EXTRAÇÃO DE BORDAS: UM ESTUDO PRELIMINAR PARA A ÁREA DO RESERVATÓRIO DE ITAPARICA

Restauração de imagens CCD/CBERS-2 pelo método de Richardson-Lucy modificado. Paulo Eduardo Ubaldino de Souza 1

SISTEMAS DE PROCESSAMENTO DE IMAGENS

PRODUÇÃO CARTOGRÁFICA UD 4 ATUALIZAÇÃO

Introdução ao Processamento de Imagens Digitais Aula 01

Deteção Remota Multiespetral

Prof o. Ti T a i go B adr d e r Mar a ino n Geoprocessamento D pa p rtam a ent n o de d Ge G oc o iê i nc n ias Instituto de Agronomia - UFRRJ

03/11/2009 TOPOGRAFIA SOCIAL

TUTORIAL. Imagens CBERS-4 5m: conheça este sensor e aprenda a realizar o download dessas imagens no site do INPE QGIS.

Transcrição:

ISSN 1981-6251, p. 477-482 MÉTODO IHS PARA FUSÃO DE IMAGEM TM COM FOTOGRAFIA AÉREA ROSEMARY BATISTA DO NASCIMENTO 1 ANA CAROLINA SCHULER CORREIA 2 PROFª. DRA. ANA LÚCIA BEZERRA CANDEIAS 3 Universidade Federal de Pernambuco UFPE 1,2,3 Departamento de Engenharia Cartográfica, Recife - PE marynas13@hotmail.com 1 carolschuler@gmail.com 2 analucia@ufpe.br 3 RESUMO A fusão de imagens busca gerar um produto sintético reunindo características espectrais e espaciais das imagens originais que o geraram. A qualidade da fusão de imagens é influenciada por diversos fatores, entre eles, a data da aquisição das imagens, pois variações nas condições meteorológicas e de iluminação podem facilitar, restringir ou dificultar o processamento. Neste trabalho foram utilizadas as bandas 5 (red), 4 (green) e 3 (blue) do Landsat 5 TM cuja resolução espacial é de 30 metros e uma fotografia aérea com resolução espacial de 5 metros, ambas da cidade de Brasília DF. Todas as etapas foram realizadas no software SPRING 4.3. Observa-se que o produto final não corresponde às cores da imagem multiespectral inicial. ABSTRACT - The fusing of images searches to generate a synthetic product congregating spectral and space characteristics of the original images that had generated it. The quality of the fusing of images is influenced by diverse factors, between them, the date of the acquisition of the images, therefore variations in the meteorological conditions and of illumination can facilitate, restrict or make it difficult the processing. In this work had been used bands 5 (red), 4 (green) and 3 (blue) of the Landsat 5 TM whose space resolution is of 30 meters and an air photograph with space resolution of 5 meters, both of the city of Brasilia - DF. All the stages had been carried through in software SPRING 4.3. It is observed that the end item does not correspond to the colors of the initial multispectral image. 1 INTRODUÇÃO Os novos sensores em plataformas orbitais ou a bordo de aeronaves possibilitam a captação de dados que geram informações com diversas resoluções: espacial, espectral, temporal e radiométrica. Com o intuito de obter um melhor aproveitamento das informações produzidas por esses sensores, são geralmente utilizados métodos conhecidos como fusão de imagens que combinam imagens de diferentes características espectrais e espaciais para sintetizar uma nova imagem com melhor resolução espacial do que a imagem multiespectral original (Leonardi et al, 2005). A fusão de imagens com diferentes resoluções busca a melhoria da resolução espacial e a manutenção da qualidade espectral. Daí que imagens pancromáticas de alta resolução podem ser combinadas com imagens multiespectrais de melhor resolução espacial mediante o uso de técnicas apropriadas. Dessa forma, a resolução espacial mais alta é incorporada de maneira a representar o conteúdo de informação das imagens com muito mais detalhes, enquanto a resolução espectral é preservada (Schneider et al, 2003). No entanto, para que a fusão de imagens seja realizada, as imagens devem estar no mesmo sistema de coordenadas, ou devem ter sido pré-processadas de maneira a representar a mesma região espacial. Tal procedimento é chamado de alinhamento ou georreferenciamento e permite que as imagens possam ser superpostas e operações matemáticas possam ser realizadas em cada pixel. Este alinhamento ou georreferenciamento pode ser obtido através do registro das imagens que serão objetos da fusão. O registro é um processo de sobreposição de duas ou mais imagens de uma mesma cena, em que se deve ter o cuidado de apresentar um erro menor que um pixel, de forma que as coordenadas de um ponto em cada uma das imagens correspondam à mesma região física. A imagem registrada é chamada de imagem de referência, e a outra é chamada de imagem de ajuste (Telles Júnior e Santa Rosa, 2005). A qualidade da fusão de imagens, entretanto, é influenciada por diversos fatores, entre eles, a data de

aquisição das imagens, pois variações nas condições meteorológicas e de iluminação podem facilitar, restringir ou dificultar o processamento (Telles Júnior e Santa Rosa, 2005). O objetivo deste trabalho é gerar uma fusão de imagem com fotografia aérea pancromática com uma imagem do sensor TM Landsat 5 e verificar o resultado espectral supondo bandas do TM543 e uma fotografia aérea e mostrar os problemas associados. A fusão de imagens usando a técnica IHS tem sido estudada desde a década de 80 do século passado. Autores como Albertz et al. (1988), Chavez et al. (1991), Ehlers (1991), Candeias (1992), Shettigara (1992) e Zhang (1999) mostram sua aplicação. Para um bom resultado da transformação IHS é necessário que a faixa espectral da banda pancromática e das bandas multiespectrais sejam compatíveis entre si, ou seja, haja uma grande interseção. No caso ideal, a faixa da banda pancromática é igual a soma das faixas das bandas multiespectrais. E quando não é respeitada a regra acima mencionada, as cores associadas no produto final não são garantidas serem iguais ao produto colorido inicial com baixa resolução espacial. Utilizou-se para a realização dos experimentos e avaliação da fusão de imagem, o software SPRING 4.3 (http://dpi.inpe.br/spring). feições artificiais após a fusão. O registro inclui a reamostragem dos dados para um novo espaçamento entre os pixels e uma nova projeção (Telles Júnior e Santa Rosa, 2005). Por outro lado, a correção geométrica tem por objetivo assegurar que as imagens a serem fundidas representem o mesmo espaço independente de terem sido adquiridas por diferentes sensores e possuírem diferentes resoluções espaciais (Telles Júnior e Santa Rosa, 2005). A fusão de imagens pancromáticas, com maior resolução espacial, e imagens multiespectrais, com menor resolução espacial, tem como objetivo incrementar os detalhes da imagem e preservar a informação espectral, resultando em uma imagem sintética com resolução espacial da imagem pancromática e contendo informações espectrais (Telles Júnior e Santa Rosa, 2005). A Figura 1 mostra um esquema geral do processo de fusão. A qualidade da fusão depende da correlação entre as imagens. Dessa forma, torna-se necessária a correção radiométrica, pois esta consiste no ajuste do brilho e do contraste da imagem pancromática, com o brilho e o contraste das bandas espectrais (Telles Júnior e Santa Rosa, 2005). 2 FUNDAMENTOS TEÓRICOS 2.1 Fusão de imagem Ainda há bastante controvérsia quanto à utilização de um termo específico para designar fusão de imagens, embora seja um processamento muito difundido entre a comunidade de sensoriamento remoto. Na literatura inglesa, por exemplo, são encontrados três termos diferentes para designar o processo: merging, fusion e pan-sharpening. A falta de critério e preocupação conceitual com que os termos são utilizados é apontada em Wald (1999). Este expõe ainda a necessidade da elaboração de um conceito que explicite o processo e expõe a seguinte definição: fusão de dados consiste em uma estrutura formal na qual são expressos conceitos e ferramentas para a junção de dados de diferentes origens com o objetivo de obter informações de maior qualidade (Pinho et al, 2005). Segundo Telles Júnior e Santa Rosa (2005), podese dividir a fusão de dados em três níveis: fusão em nível de pixel, em nível de feições (feature level) e nível de decisão (decision level). A fusão de imagens em nível de pixel quer dizer: fundir no mais baixo nível de processamento e corresponde a fusão de parâmetros físicos da imagem. Em relação aos dados em formato raster, estes devem estar registrados. No entanto, deve-se observar os erros de registro, pois imagens com erros significativos pode levar a uma má interpretação, surgimento de falsas cores e Figura 1 - Esquema geral do método de fusão. Fonte: Zaniboni e Mascarenhas, 1998. 2.2 Técnicas de fusão Pinho et al (2005) divide as técnicas de fusão em três grupos: as que utilizam um modelo de domínio espacial, as de domínio espectral e as que trabalham com operações algébricas. No primeiro caso, modelos de domínio espacial, a informação espacial de alta freqüência proveniente da imagem de alta resolução é isolada e combinada com a imagem multiespectral. As fusões que utilizam este tipo de procedimento são: as transformadas Wavelets e a técnica HPF (High-Pass Filter) (Pinho et al, 2005). No caso dos modelos de domínio espectral, a imagem multiespectral é transformada por processos que resultam num novo conjunto de bandas em que uma delas é correlacionada com a imagem pancromática. Modelos como Principais Componentes, IHS e Gram-Schmidt fazem parte deste grupo (Pinho et al, 2005). Existem ainda os modelos que trabalham com operações algébricas, estes operam funções aritméticas pixel-a-pixel, como é o caso das técnicas Brovey e multiplicativa (Pinho et al, 2005). Abaixo serão explanados aspectos de algumas técnicas citadas, com ênfase na técnica de IHS,

considerando-se ter sido esta a técnica selecionada para o desenvolvimento do experimento exposto neste trabalho. 2.2.1 HPF (High Pass Filter) Segundo Schneider et al (2003), o objetivo da fusão com filtro passa-alta é transferir o conteúdo de alta freqüência espacial da imagem de alta resolução espacial para a imagem de menor resolução espacial. A combinação desta imagem filtrada com as bandas da imagem multiespectral é feita adicionando os valores digitais pixel-a-pixel (Centeno, 2004). As feições da imagem de alta resolução se tornam mais nítidas através do realce das variações dos níveis de cinza, podendo-se utilizar um filtro passa-alta com máscara pequena (3x3) ou com dimensão correspondendo ao dobro da diferença de resolução espacial. 2.2.2 IHS O olho humano avalia a intensidade (I), a cor ou matiz (H) e a saturação (S). Por serem independentes, esses parâmetros podem ser analisados e modificados separadamente, para um melhor ajuste das cores às características do sistema visual. Segundo Centeno (2004), neste processo, a imagem composta por três bandas multiespectrais é transformada do espaço RGB ao sistema IHS. Neste último, as cores são representadas através de três componentes: intensidade (Intensity - I), matiz (Hue H) e saturação (Saturation S). A componente intensidade (I) é a medida do brilho de uma determinada cor, a matiz é o comprimento de onda dominante da cor observada e a saturação é o grau de pureza da cor (Mather, 1991 in Pinho et al, 2005). Após a conversão de sistemas, a imagem associada à intensidade é substituída pela imagem pancromática, em seguida é realizada a transformação IHS-RGB, retornando ao RGB com uma imagem multiespectral com melhor resolução espacial. Em Gonzalez e Woods (2000) tem-se esquematicamente a transformação de RGB para IHS e vice-versa (Figura 2). Canal R Canal G Transformação RGB - IHS Canal B Substituição da banda I pela banda de alta resolução espacial I H S Pan - HS Transformação IHS RGB Figura 2: Fusão pelo método de substituição com IHS. Fonte: Adaptada de Gonzalez e Woods, 2000. Para que o processamento seja realizado adequadamente, as imagens devem ser registradas antes que se efetue a transformação. Além disso, deve-se ajustar o histograma da imagem pancromática de maneira que fique semelhante ao histograma da imagem intensidade. Assim, as características espectrais da imagem não são alteradas. A imagem intensidade é muito similar a uma imagem pancromática da mesma área e, portanto, ela pode ser substituída por esta. Este princípio básico pode ser utilizado para combinar imagens de RADAR com dados de sensores multiespectrais, para imagens Ikonos, Quickbird e SPOT por apresentar bandas multiespectrais com resolução espacial inferior à banda pancromática. O caso ideal de transformação IHS aplicada à fusão deve levar em consideração a faixa espectral da imagem pancromática e das imagens multiespectrais para que haja um resultado espectral adequado. No caso de não se ter tomado estes cuidados, o resultado espectral irá gerar um resultado diferente do esperado. Caso a análise não necessite de cores fiéis, é possível trabalhar com este tipo de produto. Do contrário, se a informação espectral for realmente importante, é necessário observar que a faixa das bandas multiespectrais originais correspondam a da faixa pancromática. Levando-se em consideração este cuidado, o produto fusionado gerará cores mais fiéis. 2.2.3 Componentes principais Este processo é similar à transformação por IHS. A fusão por Componentes Principais inicia-se com a transformação das bandas multiespectrais (sem limitação do número de bandas) em um mesmo número de Componentes não correlacionadas. De forma parecida à IHS, o histograma da imagem pancromática passa por um processo de equalização de média e variância para que tenha aproximadamente a mesma média da primeira componente principal (CP1). Após a substituição, retornase ao sistema original, aplicando-se a transformação inversa. A primeira componente é substituída por ser a componente que armazena a informação comum a todas as bandas, sendo muito similar a uma imagem pancromática, enquanto as outras componentes representam a informação associada à cor (Centeno, 2004 e Pinho et al, 2005). 2.2.4 Brovey (Normalização de cores) Esta fusão apresenta as mesmas limitações da IHS, pois trabalha com o sistema de cores RGB. Nesta técnica, é realizada uma combinação aritmética entre uma imagem multiespectral de baixa resolução espacial representada no espaço RGB e uma imagem pancromática de alta resolução. Cada banda da imagem multiespectral é multiplicada pela razão da imagem pancromática dividida pela soma das bandas da imagem multiespectral (Pinho, et al, 2005).

2.3 Reamostragem Para substituir a banda I (n x m) pela banda pancromática (menor resolução espacial) é necessário que haja uma reamostragem anterior ao processo de transformação RGB para IHS, na imagem original. Com isto, garante-se que a banda I (n x m) seja do mesmo tamanho que a banda Pan (k x l). Nesse trabalho, foi realizada a reamostragem por interpolação híbrida, onde a aplicação do interpolador de alocação de vizinho mais próximo e do interpolador bilinear dependem da característica local dos níveis de cinza na imagem (INPE, 2006). O interpolador de alocação de vizinho mais próximo atribui ao valor de nível de cinza do "pixel" da imagem corrigida, o mesmo valor do nível de cinza do "pixel" que se encontra mais próximo da posição a ser ocupada. Não há alteração no valor de nível de cinza. Por sua característica, é aplicado nas regiões da imagem onde não há heterogeneidade nos valores de nível de cinza (INPE, 2006). O interpolador bilinear faz com que o nível de cinza a ser atribuído ao "pixel" da imagem corrigida seja determinado a partir do valor dos 4 "pixels" vizinhos. Como resultado, há alteração do valor do nível de cinza, considerando a sua vizinhança. É aplicado nas regiões da imagem onde há heterogeneidade nos níveis de cinza dos "pixels" (INPE, 2006). 3 MATERIAIS E MÉTODOS 3.1 Materiais Para o processamento digital das imagens foram utilizadas as bandas 5 (red), 4 (green) e 3 (blue) do satélite Landsat 5 TM cuja resolução espacial é de 30 metros e uma fotografia aérea com resolução espacial de 5 metros, ambas da cidade de Brasília. Estas imagens estão presentes no banco de exemplos do SPRING. Todas as etapas do trabalho foram realizadas no software SPRING 4.3. 3.2 Métodos Para o desenvolvimento do trabalho, foram adquiridas uma fotografia aérea pancromática (Figura 3a) e três bandas de uma imagem de satélite multiespectral (Figura 3b), ambas em formato Geotiff, ou seja, georreferenciadas. No fluxograma da Figura 4, apresenta-se, de maneira resumida, a seqüência de procedimentos adotados para geração da imagem híbrida. (a) (b) Figura 3 Área estudada. (a) - Foto aérea pancromática. (b) - Imagem de satélite multiespectral, composição 543. Processamento dos Dados Fotografia Aérea Substituição da banda I pela fotografia Transformação inversa IHS -- RGB Entrada dos Dados Saída dos Dados Imagem Multiespectral Satélite Landsat TM7-543 (extensão Geotiff) Reamostragem Transformação IHS Imagem Híbrida Análise dos Resultados Figura 4 Fluxograma da metodologia. 4 RESULTADOS 4.1 Análise das imagens Inicialmente, foi inserida no software SPRING, a foto aérea por representar apenas uma parte da cena da imagem orbital e melhor resolução espacial. Posteriormente, inseriu-se a imagem de satélite que sofreu uma reamostragem automática pelo software (Figura 5 (a)), a fim de aumentar a sua resolução espacial através de interpolação. A imagem 5 (c) apresenta a mesma área com fotografia aérea.

(a) Canal R (b) Canal G (c) Canal B Figura 6 Histogramas da Imagem reamostrada. (a) TM543 (b) Fotografia P&B (a) Canal R (b) Canal G (c) Canal B Figura 7 Histogramas da Imagem Híbrida (fusionada). (c) Imagem fusionada IHS Figura 5 Imagem de Brasília. Para produzir composições coloridas, foram associadas cada banda da imagem a um dos componentes RGB. Em seguida, executou-se a transformação IHS "pixel" a "pixel", onde a cada "pixel" na imagem de saída será associado um ponto correspondente no espaço IHS. O resultado é um conjunto de três novas imagens: uma de intensidade, uma de matiz e outra de saturação. Estas imagens devem ser realçadas, de modo a expandir o intervalo de intensidade e saturação através das técnicas convencionais de contraste, e novamente transformadas para o sistema RGB, permitindo assim melhor separação das feições que se deseja observar. Neste trabalho, considerou-se a substituição da componente I pela fotografia aérea. O resultado final desta transformação é apresentado na figura 5 (c). 4.2 Análise dos histogramas A seguir são apresentados os histogramas da Imagem Reamostrada (Figura 6), da Imagem Híbrida (Figura 7) e da Imagem Pancromática (Figura 8). O histograma fornece a impressão geral da imagem e sintetiza em um único gráfico toda a informação da imagem Devido ao fato da imagem pancromática ser representada na faixa do visível e a imagem TM ser obtida em uma única faixa do visível (as outras duas representam o infravermelho próximo e médio), os histogramas não se assemelham ao histograma da imagem reamostrada. Caso as imagens multiespectrais correspondessem à faixa espectral da imagem pancromática, os histogramas das Figuras (6) e (7) seriam mais parecidos. Figura 8 Histograma da Imagem Pancromática (foto aérea). 5 CONCLUSÕES Mesmo com a quantidade de sensores hoje disponíveis no Sensoriamento Remoto, trabalhar com fusão de imagens pode fornecer resultados sintéticos mais adequados às necessidades do usuário. Os cuidados em se gerar este tipo de produto foi mencionado com relação ao método IHS. É importante lembrar que a faixa espectral das imagens originais pan e multiespectral precisam ser as mesmas para garantir um produto com cores correspondentes ao produto de mais baixa resolução. No nosso caso, isto não foi considerado levando a cores diferentes das imagens originais e comprovado pelo histograma. Também foi visto que outros métodos para fusão de imagens são bastante conhecidos e cujos algoritmos já são amplamente desenvolvidos. É importante que se façam estudos comparativos para aplicação dos vários métodos existentes e escolha do melhor. A técnica de fusão IHS mostrada no artigo melhorou a qualidade da imagem orbital, mostrando um bom resultado do ponto de vista geométrico. Além disso, permitiu uma melhora considerável de seis vezes em sua resolução espacial, ou seja, a mesma foi alterada de 30 para 5 metros, preservando a resolução espectral das três bandas TM.

Uma das grandes vantagens na utilização da transformação IHS é a possibilidade dos três atributos responsáveis pela representação de cores serem analisados e manipulados individualmente, ao contrário do sistema RGB onde eles são intrinsecamente interligados. REFERÊNCIAS ALBERTZ, J., LEHMANN, H., MEHLBREUER, A., SCHOLTEN, F., TAUCH, R., 1988. Herstellung hochauflösender Satelliten-Bildkarten durch Kombination Multisenoraler Datensätze. In: Internationales Jahrbuch für Kartographie, band 28, Ulm: Universitätsverlag, pp. 11-27. CANDEIAS, Ana Lucia Bezerra. Uso da teoria de estimação bayesiana na fusão de dados de satélites. Dissertação de Mestrado. INPE - Instituto Nacional de Pesquisas Espaciais. São José dos Campos, SP, 1992. CENTENO, J. A. S.. Sensoriamento Remoto e Processamento de Imagens Digitais. Ed. Curso de Pós- Graduação em Ciências Geodésicas. Curitiba, 2004. CHAVEZ, P. S., SIDES, S. C., ANDERSON, J. A., 1991. Comparison of Three Different Methods to Merge Multiresolution and Multispectral Data: Landsat TM and SPOT Panchromatic. Photogrammetric Engineering & Remote Sensing, Vol. 57, No. 3, pp. 295-303. PINHO, C. M. D. de, RENNÓ, C. D. & KUX, H. J. H. Avaliação de Técnicas de Fusão Aplicadas à Imagem Quickbird. XII Simpósio Brasileiro de Sensoriamento Remoto, Goiânia, Brasil, 2005, INPE, p. 4225-4232. SHETTIGARA, V. K., 1992. A Generalized Component Substitution Technique for Spatial Enhancement of Multispectral Images Using a Higher Resolution Data Set. Photogrammetric Engineering & Remote Sensing, Vol. 58, No. 5, pp. 561-567. TELLES JÚNIOR, M. A. B. G. & SANTA ROSA, A. N. de C. Fusão de imagens IRS-1C e Landsat 5 utilizando método aditivo de sub-bandas. XII Simpósio Brasileiro de Sensoriamento Remoto, Goiânia, Brasil, 16-21 abril 2005, INPE, p. 4327-4334. TELLES JÚNIOR, M. A. B. G. & SANTA ROSA, A. N. de C. Fusão de Imagens Multitemporais Spot-5 e Cbers-2 Utilizando Transformada Wavelet. XII Simpósio Brasileiro de Sensoriamento Remoto, Goiânia, Brasil, 16-21 abril 2005, INPE, p. 4335-4342. WALD L., Some terms of reference in data fusion. IEEE Transactions on Geosciences and Remote Sensing, 37, 3, 1190-1193, 1999. ZHANG, Y., 1999. A new merging method and its spectral and spatial effects. International Journal of Remote Sensing, vol. 20, pp. 2003-2014. Zhou SCHNEIDER, M. J., BELLON, O. R. P. & ARAKI, H. Experimentos em Fusão de Imagens de Alta Resolução. Boletim Ciências Geodésicas, sec. Artigos, Curitiba, v. 9, n 1, p.75-88, 2003. Disponível em http://www.cienciasgeodesicas.ufpr.br/boletim/pdf/bcg9-1/8art91_5.pdf. EHLERS, M., 1991, Multisensor image fusion techniques in remote sensing. ISPRS Journal of Photogrammetry and Remote Sensing, Vol. 46, pp. 19-30. GONZALEZ, R. C.; WOODS, R. E. Processamento de Imagens Digitais. Editora Edgard Blucher Ltda, São Paulo, 2000. INPE Instituto Nacional de Pesquisas Espaciais. Tutorial do Software Spring. Disponível em (http://www.dpi.inpe.br/spring/portugues/tutorial/registro _img.html). Acesso: 15 dezembro 2006. LEONARDI, S. S., ORTIZ, J. O. & FONSECA, L. M. G. Comparação de técnicas de fusão de imagens para diferentes sensores orbitais. XII Simpósio Brasileiro de Sensoriamento Remoto, Goiânia, Brasil, 16-21 abril 2005, INPE, p. 4111-4113.