Um método simplificado de fusão de imagens para fins de interpretação visual

Documentos relacionados
Um método simplificado de fusão de imagens. C.P Curitiba-PR- Brasil (centeno,

Importância da alteração do Histograma de Imagem de Alta Resolução (PAN) para fusão de imagens digitais pelo método de componentes principais

Universidade do Estado de Minas Gerais Curso de Sistemas de Informações. Multimídia. A Imagem (Parte I)

RESOLUÇÃO TEMÁTICA DE IMAGEM HÍBRIDA RESULTANTE DA FUSÃO SPOT-LANDSAT RESUMO ABSTRACT

COMPARAÇÃO VISUAL ENTRE FUSÃO DE IMAGENS CBERS II B/CCD E LANDSAT 5/TM UTILIZANDO A PANCROMÁTICA CBERS II B/HRC EM SOFTWARE LIVRE

Sensoriamento Remoto II

PMI 3331 GEOMÁTICA APLICADA À ENGENHARIA DE PETRÓLEO

SEL-0339 Introdução à Visão Computacional. Aula 3 Processamento de Imagens Coloridas

Fusão de imagens de Sensoriamento Remoto utilizando a Transformada Wavelet Haar

Avaliação de técnicas de fusão aplicadas à imagem Quickbird. Carolina Moutinho Duque de Pinho 1 Camilo Daleles Rennó 1 Hermann Johann Heinrich Kux 1

PROCESSAMENTO DE IMAGENS COLORIDAS. Nielsen Castelo Damasceno

COMPARAÇÃO ENTRE OS MÉTODOS DE FUSÃO IHS, PRINCIPAL COMPONENTS

Avaliação da viabilidade de classificação de imagens fusionadas pelo uso de método de análise estatística

1.1 Fusão de imagens de alta resolução espacial

Processamento Digital de Imagens. Cor

APLICAÇÃO E ANÁLISE DAS TÉCNICAS DE FUSÃO IHS E COMPONENTES PRINCIPAIS EM IMAGENS DO SATÉLITE CBERS-2B MULTISSENSORES HRC/CCD RESUMO ABSTRACT

Implementação de um Sistema de Fusão de Imagens no Modelo

Sensoriamento Remoto II

EXTRAÇÃO DE TELHADOS DE BARRO EM IMAGENS DE ALTA RESOLUÇÃO CLAY ROOF EXTRACTION IN HIGH RESOLUTION IMAGES

Procedimento para minimização do efeito de alta freqüência resultante de fusão entre bandas TM Landsat e pancromáticas Spot e Quickbird

Segmentação de imagens multiespectrais utilizando-se o atributo matiz Sumaia Resegue Aboud Neta 1 Luciano Vieira Dutra 1 Bruno Rodrigues do Prado 1

PROCESSAMENTO DIGITAL DE IMAGENS (SERP11) TRANSFORMAÇÕES LINEARES: COMPONENTES PRINCIPAIS, TASSELED CAP, IHS. Daniel C. Zanotta

IMAGENS DIGITAIS APLICADAS PARA DETERMINAÇÃO DE ÁREAS AGRÍCOLAS ATRAVÉS DO CLASSIFICADOR BAYES

Introdução ao Processamento de Imagens Digitais Aula 01

EXPERIMENTOS EM FUSÃO DE IMAGENS DE ALTA RESOLUÇÃO

Capítulo II Imagem Digital

Simulação de uma banda pancromática para o sensor TM (Landsat 5), utilizando filtro combinado de restauração e interpolação.

Correção do fenômeno NODATA na transformação de 16 para 8 bits em imagens QuickBird.

O resultado é uma série de "fatias" da superfície, que juntas produzem a imagem final. (Exemplo: o radiômetro dos satélites NOAA gira a uma

Manipulação, Visualização e Interpretação de Imagens de Sensoriamento Remoto

Aplicação e avaliação de técnicas de fusão em imagens Ikonos e GeoEye

Processamento de Imagens Coloridas. Prof. Adilson Gonzaga

Processamento Digital de Imagens SER Prática de Laboratório

Cores em Imagens e Vídeo

processos de formação e suas inter-relações com o ambiente. As diversas combinações de fatores (clima, relevo,

MÉTODO IHS PARA FUSÃO DE IMAGEM TM COM FOTOGRAFIA AÉREA

Fusão de imagens MODIS com NDVI do Landsat para a classificação de áreas de cultivo de Soja

Fundamentos sobre. Universidade Federal do Rio de Janeiro - IM/DCC & NCE. Antonio G. Thomé Sala AEP/1033. Processamento de Imagens

José Alberto Quintanilha Mariana Giannotti

FUSÃO DE IMAGEM PELO MÉTODO IHS UTILIZANDO IMAGEM DO SATÉLITE CBERS 4 SENSOR MUX E ORTOFOTO RESUMO ABSTRACT

INTRODUÇÃO AO PROCESSAMENTO DIGITAL DE IMAGENS SENSORIAMENTO REMOTO

Resoluções das Imagens fotogramétricas e digitais. Fotogrametria e Fotointerpretação Prof. Dr. Raoni W. D. Bosquilia

Fundamentos de Processamento Gráfico. Modelos de cores. Fátima Nunes. Profa. Fátima L. S. Nunes

PROCESSAMENTO DE IMAGENS DIGITAIS PARA VISÃO ROBÓTICA. Digital Image Processing for Robotic Vision

SEGMENTAÇÃO MULTIRESOLUÇÃO DE IMAGENS FUSIONADAS. Segmentation Multiresolution of the Images Fusion

INSTITUTO NACIONAL DE PESQUISAS ESPACIAIS PROGRAMA DE PÓS-GRADUAÇÃO EM SENSORIAMENTO REMOTO DIVISÃO DE PROCESSAMENTO DE IMAGENS

PROCESSAMENTO DE IMAGENS COLORIDAS

Luz e Cor. Sistemas Gráficos/ Computação Gráfica e Interfaces FACULDADE DE ENGENHARIA DA UNIVERSIDADE DO PORTO

SENSORIAMENTO REMOTO INTRODUÇÃO E ÍNDICES DE VEGETAÇÃO

Rodrigo Antonio LA SCALEA, Flavio Marcelo CONEGLIAN e Selma Regina Aranha RIBEIRO. Universidade Estadual de Ponta Grossa

09/03/2017. O que é Sensoriamento Remoto? Tipos de Sensoriamento Remoto REVISÃO SENSORIAMENTO REMOTO AULA ZERO. Satélites.

REVISÃO SENSORIAMENTO REMOTO AULA ZERO. Daniel C. Zanotta 14/03/2018

O resultado é uma série de "fatias" da superfície, que juntas produzem a imagem final. (Exemplo: o radiômetro dos satélites NOAA gira a uma

Cor SCC0251 Processamento de Imagens

Sensoriamento Remoto I Engenharia Cartográfica. Prof. Enner Alcântara Departamento de Cartografia Universidade Estadual Paulista

PROCESSAMENTO DIGITAL DE IMAGENS. Thales Sehn Körting

Redução de Bruma Atmosférica Utilizando Técnicas de Processamento de Imagem. Ivan Dornelas Falcone de Melo 1 Ana Lúcia Bezerra Candeias 1

Processamento de Imagens Coloridas. 35M34 Sala 3D5 Bruno Motta de Carvalho DIMAp Sala 15 Ramal 227

Fusão de Imagens CBERS 2B: CCD-HRC. Fernando Leonardi 1 Cleber Gonzales de Oliveira 1 Leila Maria Garcia Fonseca 1 Cláudia Maria de Almeida 1

Análise comparativa de técnicas de fusão de imagens CBERS-2B (CCD e HRC) utilizando o software ArcGIS

Sensoriamento Remoto Aplicado à Geografia

Processamento de imagem a cores

Sensoriamento Remoto Aplicado à Geografia Características das Imagens

Sensoriamento Remoto II

CARTOGRAFIA TEMÁTICA Teoria das cores. Prof. Luciene S. Delazari Departamento de Geomática Curso de Engenharia Cartográfica e de Agrimensura

AULA 9 TRANSFORMAÇÃO RGB IHS. Daniel C. Zanotta 22/06/2017

Sensoriamento Remoto. Prof. Enoque Pereira da Silva

Flavio Marcelo CONEGLIAN, Rodrigo Antonio LA SCALEA e Selma Regina Aranha RIBEIRO. Universidade Estadual de Ponta Grossa

Fusão de imagens IRS-1C e Landsat 5 utilizando método aditivo de sub-bandas

CARTOGRAFIA TEMÁTICA Teoria das cores. Prof. Luciene S. Delazari Departamento de Geomática Curso de Engenharia Cartográfica e de Agrimensura

Introdução a Análise de Imagens Digitais

TUTORIAL. Imagens CBERS-4 5m: conheça este sensor e aprenda a realizar o download dessas imagens no site do INPE QGIS.

Luz, Cor e Percepção Visual

Fusão de imagens por IHS para identificação de uso e cobertura do solo em elementos amostrais

AULA 9 TRANSFORMAÇÃO RGB HSV. Daniel C. Zanotta 13/08/2018

COMPARAÇÃO ENTRE MÉTODOS DE CORREÇÃO ATMOSFÉRICA EM IMAGENS MULTIESPECTRAIS LANDSAT 8 OLI

Processamento Digital de Imagens

Campus de Presidente Prudente PROGRAMA DE ENSINO. Área de Concentração AQUISIÇÃO, ANÁLISE E REPRESENTAÇÃO DE INFORMAÇÕES ESPACIAIS

Qualidade Radiométrica das Imagens Sensor ADS40

[2CTA121] Processamento de Imagens em Alimentos: Conceitos e Aplicações

Processamento digital de imagens

Curso de Extensão: Noções de Sensoriamento

Sistemas de Cores. Leandro Tonietto Processamento Gráfico Jogos Digitais set-09

PROGRAMA DE ENSINO. 3 quadrimestre Área de Concentração AQUISIÇÃO, ANÁLISE E REPRESENTAÇÃO DE INFORMAÇÕES ESPACIAIS

Definições: Sistemas Sensores

UNICAP Universidade Católica de Pernambuco Laboratório de Topografia de UNICAP - LABTOP Topografia 2. Sensoriamento Remoto.

PEF 5743 Computação Gráfica Aplicada à Engenharia de Estruturas

Satélites Artificiais da Terra

Aplicação do modelo de cores IHS na detecção de plantas aquáticas imersas

MARIO JORGE SCHNEIDER

PROCESSAMENTO DE IMAGENS

EXTRAÇÃO DE FALHAS EM PLANTIO DE CANA-DE-AÇÚCAR USANDO O ATRIBUTO COR EM IMAGEM DE VANT

Universidade Federal de Alagoas Instituto de Matemática. Cor. Prof. Thales Vieira

Aplicações Informáticas B 12º Ano

5. A COR NO PROCESSAMENTO DIGITAL DE IMAGENS DE SENSORIAMENTO REMOTO

PROCESSAMENTO DIGITAL DE IMAGENS (SERP11) CONCEITOS BÁSICOS DE SR REPRESENTAÇÃO DAS IMAGENS DIGITAIS CALIBRÃÇÃO RADIOMÉTRICA. Daniel C.

Processamento Digital de Imagens

Processamento Digital de Imagens

Mudanças de Coordenadas em Sistemas de Cores

Transcrição:

DOI: 10.4025/actascitechnol.v31i1.537 Um método simplificado de fusão de imagens para fins de interpretação visual Selma Regina Aranha Ribeiro 1* e Jorge Antonio Silva Centeno 2 1 Universidade Estadual de Ponta Grossa, Av. General Carlos Cavalcanti, 4748, 84030-900, Ponta Grossa, Paraná, Brasil. 2 Universidade Federal do Paraná, Curitiba, Paraná, Brasil. *Autor para correspondência. E-mail: selmar_12@hotmail.com RESUMO. A fusão de imagens é um tema que desperta interesse pela coleta de imagens multiespectrais e pancromáticas com diferentes resoluções espaciais e espectrais. O método de fusão ganhou grande reconhecimento quando imagens Landsat multiespectrais puderam ser combinadas com imagens SPOT pancromáticas. Esse processo comprovou ser útil na geração de imagens híbridas que combinam as propriedades das imagens originais numa única nova imagem, que preserva a informação espectral e possui melhor informação espacial. O resultado é uma nova imagem com maior resolução espacial e preservação da maior resolução espectral. Este documento apresenta o método I1I2I3, introduzido por Ohta et al. (1980), como uma opção de fusão por substituição em relação ao método RGB- IHS. Para aplicar o método I1I2I3 e o RGB-IHS, duas imagens de altas resoluções foram utilizadas, Ikonos II e Quickbird. Palavras-chave: sensoriamento remoto, processamento de imagens, fusão de imagem. ABSTRACT. A simplified merging method applied to image data for purposes of visual interpretation. Image merging is a topic that has drawn new interest due to the acquirement of multispectral and panchromatic images with different resolutions. The merging approach received great recognition when multispectral Landsat images were matched with panchromatic SPOT images. This process proved to be useful for generating hybrid images that combine properties from the originals into a new unique image, still maintaining spectral information and featuring improved spatial information. The result is a new image with better spatial and preserved spectral resolution. This paper presents the I1I2I3 merging method, introduced by Ohta et al. (1980), as an option for image merging through substitution in relation to the RGB-HSI method. In order to apply the I1I2I3 and RGB-HIS methods, two high resolution images were utilized, Ikonos II and Quickbird. Key words: remote sensing, image processing, image merging. Introdução A fusão de imagens é um tema que despertou novo interesse pela aquisição de imagens multiespectrais e pancromáticas com diferentes resoluções espaciais. O método de fusão ganhou grande reconhecimento quando imagens Landsat multiespectrais puderam ser combinadas com imagens SPOT pancromáticas, gerando imagens híbridas que combinam as propriedades das imagens originais numa única nova imagem com preservação da maior informação espectral e da maior resolução espacial. O conteúdo de informação de uma imagem digital encontra-se diretamente associado à sua resolução radiométrica, espacial e espectral (CARPER et al., 1990). Uma imagem ideal deveria ter alta resolução espacial, espectral e radiométrica, oferecendo todas as vantagens ao usuário ou intérprete e facilitando a extração de informações. Porém, em termos práticos, as imagens de sensoriamento remoto apresentam limitações técnicas e operacionais. A resolução espacial de dados registrados nas imagens multiespectrais pode ser melhorada quando estes dados são combinados com outros provenientes de uma outra imagem adquirida com maior resolução espacial e, geralmente, menor resolução espectral. Existem diferentes opções para isso, e os métodos de substituição são os mais comuns. Segundo Cliche et al. (1985), um método de fusão eficiente é caracterizado por preservar a informação espectral da imagem original e incorporar a informação espacial da banda pancromática para o produto híbrido (nova imagem). Neste artigo, é apresentado o método de fusão intitulado de I1I2I3, sugerido por Ohta et al. (1980) como uma alternativa simplificada, se comparado

2 Ribeiro e Centeno com o método RGB-IHS, para a fusão de imagens por substituição. Duas imagens de alta resolução espacial foram utilizadas para as fusões, a Ikonos II e a Quickbird. Revisão de literatura O objetivo da fusão de imagens é manter a informação espectral e incluir, na medida do possível, a informação espacial derivada da imagem com menor GSD (Ground Sample Distance) de melhor resolução espacial (CHAVEZ; BOWEL, 1988). Welch e Ehlers (1987) usaram a transformação RGB-IHS para gerar imagens híbridas. O método proposto é capaz de fundir dados da imagem pancromática com os dados das bandas multiespectrais do SPOT e, também, da imagem pancromática adquirida pelo sensor SPOT com os dados das imagens registradas nas bandas multiespectrais do sensor Landsat, visando melhorar a interpretação da imagem especialmente em áreas urbanas. Este tipo de fusão é chamado de substituição; inicialmente, a imagem multiespectral, composta por três bandas tem seu pixel alterado para a resolução da banda pancromática e é transformada do sistema de cor RGB (Red, Green, Blue) para o sistema IHS (Intensity, Hue, Saturation). Então, dessa imagem RGB, com o pixel alterado para o mesmo tamanho do pixel da imagem pancromática, é extraída a componente intensidade, a qual é substituída pela imagem da banda pancromática; depois a transformação inversa é aplicada, retornando ao sistema RGB com uma imagem multiespectral. O resultado é uma imagem colorida com a melhor resolução espacial, ou seja, a resolução da imagem pancromática. O princípio básico nesse tipo de operação é que a imagem intensidade do sistema IHS tem alta correlação positiva com a imagem pancromática correspondente e, por isso, essa substituição pode ser feita sem que existam alterações significativas nos padrões de cores e características espectrais na imagem resultante, que tem maior resolução espacial. Posteriormente, na alteração do tamanho do pixel da imagem multiespectral, deve-se ter especial atenção com dois procedimentos: o perfeito registro das imagens envolvidas no processo e o ajuste adequado do histograma dos dados da imagem pancromática em relação à componente intensidade extraída do sistema de cor IHS. Esses cuidados permitirão obter um sistema de correspondência de pixels, disponibilizados nas várias imagens adquiridas com diferentes resoluções espaciais, e garantirão também melhor homogeneidade nos padrões radiométricos observáveis. O mesmo princípio é utilizado para combinar dados (imagens) adquiridos por Radares e Laserscaning com dados adquiridos por sensores multiespectrais, como é apresentado em Harris e Murray (1990). A maior desvantagem do método de fusão por substituição IHS é o fato de utilizar apenas imagens de três bandas multiespectrais. Essa limitação pode ser superada quando se utiliza a transformação das componentes principais em lugar da transformação IHS (CHAVEZ et al., 1991). O processo que utiliza as componentes principais é similar ao anterior, e a primeira componente é substituída pela imagem pancromática. A justificativa para essa substituição é baseada na afirmação de que a primeira componente é a que armazena os dados que tem alta correlação com os dados das imagens registrados nas outras bandas. A escolha pela imagem pancromática para substituir a primeira componente é fundamentada da seguinte forma: a imagem pancromática é adquirida com uma cobertura ampla das faixas do espectro eletromagnético, ela tem alta probabilidade de estar altamente correlacionada com todas as outras imagens, assim retém os dados comuns, enquanto a informação associada à cor é representada pelas outras componentes. Os resultados da aplicação de diferentes métodos de fusão podem ser avaliados segundo dois aspectos: qualidade espectral e qualidade espacial. A qualidade espacial é analisada pelo GSD (Ground Sample Distance). A qualidade espectral é avaliada pelo número e largura das faixas do espectro eletromagnético usadas no imageamento (ou obtido no resultado da fusão). Sistemas RGB - IHS A maneira de visualizar dados espectrais usando um computador é associar as leituras do contador digital em diferentes bandas com as intensidades de cor no monitor, associando à energia refletida (que foi capturada pelo sensor) dos objetos os níveis de cinza ou tonalidades dos elementos reticulados do monitor. O monitor representa as cores pela combinação aditiva das cores básicas: vermelho (Red), verde (Green) e azul (Blue), do que decorre o nome RGB (Red, Green, Blue). Qualquer cor a ser representada neste dispositivo de visualização é resultado da combinação dessas três cores básicas. Segundo Hunt (1992), isso resulta numa quantidade limitada de cores que é, porém, muito grande em relação à capacidade de percepção do

Método simplificado para fusão de imagens digitais 3 olho humano. As cores podem ser representadas por um vetor tridimensional (RGB), e os valores digitais possíveis dependem da resolução radiométrica da imagem. Para uma imagem de oito bits, o espaço de cor assume a forma de um cubo de 256 valores digitais em cada eixo, o que resulta em 16.777.216 diferentes combinações possíveis (cores). Com a finalidade de descrever as cores usando termos mais comuns ao ser humano, foram criados sistemas alternativos, como o sistema IHS: Intensidade (Intensity), tonalidade ou matiz (Hue) e saturação (Saturation). O matiz é o aspecto colorido da impressão visual, que corresponde ao estímulo da retina por determinados comprimentos de onda. A saturação se refere ao grau de pureza da cor predominante, ou também é descrita como o conteúdo de branco de um estímulo percebido (HARRIS; MURRAY, 1990). Finalmente, a intensidade corresponde ao total de energia incidente em todos os comprimentos de onda percebidos pelo olho. Para se entender a transformação RGB-IHS, pode-se representar o sistema IHS dentro do cubo definido pelo sistema RGB, como é apresentado na Figura 1. A intensidade (I) deveria ser medida como o afastamento entre a origem e a posição do pixel no cubo, porém, para evitar o cálculo da raiz quadrada, a intensidade pode ser estimada pela média das componentes RGB. A saturação (S) é medida como o afastamento da cor em relação à diagonal principal (SCHOWENGERDT, 1983). Finalmente, a tonalidade (H) é a medida angular entre a linha que une a diagonal principal e a cor vermelha pura e a linha que une a diagonal principal e a cor em questão. Para a determinação do ângulo associado à tonalidade, é conveniente projetar ambas as linhas num plano perpendicular à diagonal principal, como é apresentado na Figura 1. Figura 1. O sistema IHS em relação ao sistema RGB. A transformação RGB-IHS é detalhada em Gonzalez e Woods (2002) e é apresentada nas Equações 1, 2 e 3. ( R + G B) 1 I = + 3 (1) S 3 = 1 * mín( R, G B) ( R + G + B), (2) 0,5* ( R G) + ( R B) 2 ( R G) + ( R G) * ( G B) [ ] H = ACOS (3) 0, 5 Se o valor da saturação (S) for nulo, então a definição de H torna-se desnecessária. Geralmente, adota-se o valor H = 0 como sendo relativo à cor vermelha pura e, a partir dessa referência, são determinadas as outras cores do espectro. Como H é medida radial (é o valor de um ângulo), deve-se tomar cuidado com a ocorrência de ângulos próximos de zero (Equação 4). B G >, então H = 360 0 H (4) I I A transformação inversa (IHS-RGB) é calculada levando em consideração diferentes situações para H. Uma descrição desta transformação pode ser encontrada em Ohta et al. (1980). Além da transformação IHS, outros sistemas alternativos são comumente encontrados na literatura e nos programas de processamento de imagens, como HSL (Hue, Saturation, Luminance) ou HSV-hexacônico (Hue, Saturation, Value), disponíveis, por exemplo, no software ENVI no módulo de processamento de imagens. Sistema I1I2I3 (OHTA et al., 1980) Na busca de um sistema ótimo para a segmentação de imagens de cenas naturais, Ohta et al. (1980) avaliaram as diferenças, entre várias opções, para a representação da cor. Essas opções incluíram, além do sistema IHS (Intensity, Saturation e Hue) e as componentes principais (CP), outros sistemas de cor, como: YIQ (Luminance-Inphase Quadrature Sistema de cor para sinal de TV), RGB (Sistema de cor normalizado), XYZ (Sistema de cor X-Y-Z CIE Comissão Internacional sobre Iluminação) e L*a*b* (Cube root color system L-a-b, CIE). Ao analisarem os resultados obtidos na segmentação de oito imagens coloridas, Ohta et al. (1980) concluíram que uma transformação simples,

4 Ribeiro e Centeno composta de três vetores, que originam a rotação do sistema RGB, era eficiente e poderia ser usada na segmentação de imagens sem que existissem perdas consideráveis na variável cor. Após calcular as componentes principais das diferentes imagens, Ohta et al. (1980) perceberam que existia a tendência de as componentes principais serem semelhantes entre si (alta correlação positiva), independentemente da natureza da imagem. Os coeficientes da primeira componente principal tendiam ao mesmo valor, logo, interpretaram que esta componente tinha a tendência de ser paralela à diagonal principal do sistema RGB, e as outras duas se localizam em planos perpendiculares à primeira. Assim, eles propuseram a aproximação das componentes principais por uma rotação simples, e as componentes resultantes deste novo sistema foram denominadas de I1I2I3, descritas pela matriz de rotação da Equação 5. Cada sensor disponibiliza um conjunto de imagens composto pela imagem pancromática (Pan: 0,45 0,90 µm) e por três imagens multiespectrais verde (banda 2) - G: 0,52 0,60 µm, vermelho (banda 3) - R: 0,63 0,69 µm e infravermelho próximo (banda 4) - V: 0,76 0,90 µm. De cada conjunto foi extraído um recorte em correspondência às imagens que o compõe. Assim, cenas de uma mesma região foram recortadas das imagens pancromáticas e multiespectrais correspondentes, adquiridas pelos sensores Ikonos II e Quickbird. As Figuras 2 e 3 indicam as cenas das imagens Ikonos II (Figura 2) e Quickbird (Figura 3). Visualmente, pode-se notar a diferença de resolução espacial entre as imagens pancromáticas (Figuras 2 e 3 ) e as multiespectrais (Figuras 2 e 3 ). 1/ 3 MI= 0 1/ 2 1/ 3 1/ 2 1/ 4 1/ 3 1/ 2 1/ 4 (5) A primeira componente é a média das três bandas do sistema RGB; a segunda é a diferença entre vermelho (R) e, verde (G) e azul (B); a terceira é a diferença entre azul (B) e verde (G). Eventualmente, os sinais podem estar trocados em função da direção do vetor. As duas últimas componentes armazenam a informação de cor, e a primeira, a intensidade. Material e métodos Imagens: Quickbird bandas pancromáticas, com resolução espacial de 0,70 m e multiespectral com 2,80 m, datada de 2 de junho de 2003 e IKONOS II com resolução espacial de 1,0 m e multiespectral com 4,0 m, datada de 2 de junho de 2002. Programas: Matlab 6.1 Implementação: Sistema I1I2I3 e do RGB-IHS. Como primeira etapa, foi feito o registro entre as imagens correspondentes (pancromáticas e multiespectrais). Para se fazer esse registro, é necessário que as imagens multiespectrais estejam na mesma escala (ou resolução espacial) que as suas respectivas imagens pancromáticas, ou seja, de 1 m e de 0,7 m para as imagens Ikonos II e Quickbird, respectivamente. Figura 2. Recortes imagem Ikonos II PAN e multiespectral falsa-cor 4R3G2B.

Método simplificado para fusão de imagens digitais 5 rgb = inv( MI )* PANI 2I3 Foi também realizada a fusão mediante a transformação RGB-IHS, nas duas cenas dos sensores IkonosII e Quickbird, de acordo com as Equações 1, 2 e 3. Tanto o método I1I2I3 quanto o RGB-IHS foram implementados no software Matlab 6.1. Resultados e discussão As Figuras 4 e 5 apresentam os resultados das fusões pelos métodos I1I2I3 e RGB-IHS, para as duas imagens com diferentes resoluções espaciais. Na Figura 4 (a e b), veem-se as imagens híbridas, isto é, a fusão, já processada, dos sensores Ikonos II e Quickbird por I1I2I3; a Figura 5 (a e b) é o resultado da fusão do recorte da imagem dos sensores Ikonos II e Quickbird por RGB-IHS. Figura 3. Recortes imagem Quickbird PAN e multiespectral falsa-cor 4R3G2B. A matriz de rotação proposta por Ohta et al. (1980) foi adotada para a fusão das imagens pelo método de substituição simplificado. Assim sendo, as seguintes etapas foram aplicadas: a) as três bandas foram transformadas utilizando a matriz de rotação de Ohta et al. (1980), como consta na Equação 5; I1 I 2I3 = MI ( RGB) b) a imagem correspondente a I1 foi substituída pela imagem pancromática; I1I 2I3 PANI 2I3 c) a transformação inversa foi aplicada a este novo conjunto. Figura 4. Resultados da fusão por I1I2I3 com as imagens Ikonos II e Quickbird.

6 Ribeiro e Centeno Alguns problemas existem quando se usa o sistema RGB-IHS em processamento de imagens. Por exemplo, a aproximação da componente intensidade, valor, ou luminosidade pela diagonal principal não condiz com o conceito real usado na percepção de cor. Este sistema também apresenta a desvantagem de incluir medidas angulares, como no caso da componente H, que geralmente é dada em frações de graus. Portanto, ressalta-se que é um sistema mais complexo se comparado com o método I1I2I3 e, portanto, mais difícil quando da implementação no software Matlab (em linguagem de programação). Figura 5. Resultados da fusão por IHS com as imagens Ikonos II e Quickbird. No estudo, foram usados os métodos de fusão de imagens, por substituição: um foi o simplificado I1I2I3; outro, o convencional RGB-IHS. Eles foram utilizados com o intuito de aumentar a resolução espacial e manter a resolução espectral, melhorando a interpretação visual. Tanto o método RGB-IHS como o método nomeado de I1I2I3, sugerido por Ohta et al. (1980), geraram resultados satisfatórios para a interpretação visual. Comparando-se visualmente as imagens das Figuras 2(a e b) e 3(a e b) com as da Figura 4(a e b) e 5(a e b), nota-se que foram obtidas imagens com maior resolução espacial, com os detalhes derivados da imagem pancromática. Destaca-se a vantagem das novas imagens sobre imagens pancromáticas (originais) de poder realizar-se a composição colorida, pois a resolução espectral foi mantida, tanto no método I1I2I3, Figura 4(a e b), quanto no RGB- IHS, Figura 5(a e b). Conclusão A transformação I1I2I3 utilizada neste trabalho é determinada por uma simples rotação dos eixos do cubo RGB (Equação 5). Este fato facilita os procedimentos, pois o processo todo envolve três etapas: (1) transformação direta (rotação); (2) substituição da primeira componente pela imagem pancromática e; (3) transformação inversa, portanto não apresenta os problemas da transformação RGB- IHS acima citados. A transformação usada I1I2I3, como método simplificado, gera um resultado consistente, isto é, a imagem resultante apresenta-se mais adequada que as imagens originais, pancromática e multiespectrais, para fins de interpretação visual, e a nova imagem obtida desse processo de fusão é igual à da transformação dos espaços RGB-IHS, visualmente. Referências CARPER, W.; LILLESAND, T. M.; KIEFER, R. W. The use of Intensity-Hue-Saturation transformation for merging SPOT panchromatic and multispectral image data. Photogrammetric Engineering and Remote Sensing, v. 56, n. 4, p. 459-467, 1990. CHAVEZ, P. S.; SIDES, S. C.; ANDERSON, J. A. Comparison of three different methods to merge multiresolution and multispectral data: Landsat TM and SPOT panchromatic. Photogrammetric Engineering and Remote Sensing, v. 57, n. 3, p. 295-303, 1991. CHAVEZ, P. S.; BOWEL, J. A. Comparison of the Spectral Information Content of Landsat Thematic Mapper and SPOT for Three Different Sites in the Phoenix, Arizona Region. Photogrammetric Enginnering and Remote Sensing, v. 54, n. 12, p. 1699-1708, 1988. CLICHE, G.; BONN, F.; TEILLET, P. The SPOT satellite remote sensing mission. Photogrammetric Enginnering and Remote Sensing, v. 54, n. 12. p. 1699-1708, 1985. GONZALEZ, R. C.; WOODS, R. E. Processamento de imagens digitais. São Paulo: Edgard Blücher, 2000.

Método simplificado para fusão de imagens digitais 7 HARRIS, J. R.; MURRAY, R. IHS transform for the integration of radar imagery with other remotely sensed data. Photogrammetric Enginnering and Remote Sensing, v. 56, n. 12, p. 1631-1641, 1990. HUNT, R. W. G. Measuring colour. Chichester: Ellis Horwood, 1992. OHTA, Y.; KANADE, T.; SAKAI, T. Color information for region segmentation. Computer Graphics and Image Processing, v. 13, n. 13, p. 222-241, 1980. SCHOWENGERDT, R. A. Techniques for image processing and classification in remote sensing. New York: Academic Press, 1983. WELCH, R.; EHLERS, M. Merging multiresolution SPOT HRV and Landsat TM data. Photogrammetric Enginnering and Remote Sensing, v. 51, n. 8, p. 301-303, 1987. Received on December 5, 2007. Accepted on August 12, 2008. License information: This is an open-access article distributed under the terms of the Creative Commons Attribution License, which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited.