Processamento Digital de Imagens

Documentos relacionados
PROCESSAMENTO DIGITAL DE IMAGENS

INTRODUÇÃO AO PROCESSAMENTO DIGITAL DE IMAGENS SENSORIAMENTO REMOTO

José Alberto Quintanilha Mariana Giannotti

Questões concursos

PROCESSAMENTO DE IMAGENS

INSTITUTO NACIONAL DE PESQUISAS ESPACIAIS PROGRAMA DE PÓS-GRADUAÇÃO EM SENSORIAMENTO REMOTO DIVISÃO DE PROCESSAMENTO DE IMAGENS

Correção geométrica de imagens de sensoriamento remoto REGISTRO. Profa. Ligia Flávia Antunes Batista

Prof o. Ti T a i go B adr d e r Mar a ino n Geoprocessamento D pa p rtam a ent n o de d Ge G oc o iê i nc n ias Instituto de Agronomia - UFRRJ

Processamento Digital de Imagens - PDI

Processamento Digital de Imagens

Sensoriamento Remoto I Engenharia Cartográfica. Prof. Enner Alcântara Departamento de Cartografia Universidade Estadual Paulista

Sensoriamento remoto 1. Prof. Dr. Jorge Antonio Silva Centeno Universidade Federal do Paraná 2016

Introdução ao Processamento de Imagens

FACULDADE DE ENGENHARIA DE MINAS GERAIS SENSORIAMENTO REMOTO E AEROFOTOGRAMETRIA REVISÃO DE CONTEÚDO. Prof. Marckleuber

Capítulo 3 PRÉ-PROCESSA MENTO DE IMAGENS

PARTE 2 INTRODUÇÃO AO SIG/GIS. Mundo Real. Curso de Geoprocessamento: Prof. Alzir Felippe B. Antunes

Programa 25/02/2019. Objetivo Geral: Processamento Digital de Imagens I Turma A. Objetivos Específicos:

SEL-0339 Introdução à Visão Computacional. Aula 3 Processamento de Imagens Coloridas

Sensoriamento remoto 1. Prof. Dr. Jorge Antonio Silva Centeno Universidade Federal do Paraná 2016

O resultado é uma série de "fatias" da superfície, que juntas produzem a imagem final. (Exemplo: o radiômetro dos satélites NOAA gira a uma

Mapeamento do uso do solo para manejo de propriedades rurais

Introdução ao Processamento de Imagens Digitais Aula 01

Processamento de imagem a cores

PMI 3331 GEOMÁTICA APLICADA À ENGENHARIA DE PETRÓLEO

PROCESSAMENTO DE IMAGENS SAR AULA 14

Curso de Extensão: Noções de Sensoriamento

Processamento Digital de Imagens

Processamento Digital de Imagens

ESTRUTURA DE UMA IMAGEM E CALIBRAÇÃO RADIOMÉTRICA AULA 01. Daniel C. Zanotta 14/03/2018

Classificação e Exemplos de Sistemas Sensores. Disciplina: Sensoriamento Remoto Prof. Dr. Raoni W. D. Bosquilia

PROCESSAMENTO DIGITAL DE IMAGENS. Thales Sehn Körting

GEOPROCESSAMENTO. Bases conceituais e teóricas. Prof. Luiz Henrique S. Rotta

Processamento Digital de Imagens SER Prática de Laboratório

REVISÃO SENSORIAMENTO REMOTO AULA ZERO. Daniel C. Zanotta 14/03/2018

09/03/2017. O que é Sensoriamento Remoto? Tipos de Sensoriamento Remoto REVISÃO SENSORIAMENTO REMOTO AULA ZERO. Satélites.

Classificação de imagens de Sensoriamento Remoto. Disciplina: Geoprocessamento Profª. Agnes Silva de Araujo

Processamento Digital de Imagens

Ecologia de Paisagem Conceitos e métodos de pesquisa 2012

Avaliação Parcial 01 - GABARITO Questões Bate Pronto. As questões 1 a 23 possuem apenas uma alternativa correta. Marque-a.

Tecnologias de sensoriamento remoto para a identificação e monitoramento das mudanças no uso e ocupação dos solos urbanos

Sensoriamento Remoto I Engenharia Cartográfica. Prof. Enner Alcântara Departamento de Cartografia Universidade Estadual Paulista

PROCESSAMENTO DE IMAGENS SAR AULA 13

Mapeamento do uso do solo

LAB 1 - GEOPROCESSAMENTO Introdução à imagem multiespectral e assinatura espectral de alvos

Qualidade Radiométrica das Imagens Sensor ADS40

O resultado é uma série de "fatias" da superfície, que juntas produzem a imagem final. (Exemplo: o radiômetro dos satélites NOAA gira a uma

Aula 6 - Processamento de Imagens de Radar

PROCESSAMENTO DIGITAL DE IMAGENS (SERP11) CONCEITOS BÁSICOS DE SR REPRESENTAÇÃO DAS IMAGENS DIGITAIS CALIBRÃÇÃO RADIOMÉTRICA. Daniel C.

Sensoriamento remoto x uso do solo x transportes

CAPÍTULO 5 RESULTADOS. São apresentados neste Capítulo os resultados obtidos através do programa Classific, para

27/03/2017 OPERAÇÕES ARITMÉTICAS NDVI E RAZÃO DE BANDAS AULA 04 RAZÃO DE BANDAS. Ex: Realce de minerais de Ferro = ρ v / ρ A

MNT: MODELAGEM NUMÉRICA DE TERRENOS

Resoluções das Imagens fotogramétricas e digitais. Fotogrametria e Fotointerpretação Prof. Dr. Raoni W. D. Bosquilia

SENSORIAMENTO REMOTO: CONCEITOS, TENDÊNCIAS E APLICAÇÕES. Imagens de Satélites Orbitais

SENSORES REMOTO UMA ABORDAGEM PRÁTICA NO LEVANTAMENTO FLORESTAL

Geoprocessamento e sensoriamento remoto como ferramentas para o estudo da cobertura vegetal. Iêdo Bezerra Sá

CONCEITOS RADIOMÉTRICOS

Universidade do Estado de Minas Gerais Curso de Sistemas de Informações. Multimídia. A Imagem (Parte I)

Geração de mapas de altitude por sensoriamento remoto. Imagens do Óptico Imagens InSAR

COMPORTAMENTO ESPECTRAL DE ALVOS

Formação de Imagens de SAR

GEOPROCESSAMENTO. Sensoriamento Remoto. Prof. Luiz Rotta

PLANO DE ENSINO ANO 2016

4- Correção Geométrica de Imagens Orbitais

SENSORIAMENTO REMOTO INTRODUÇÃO E ÍNDICES DE VEGETAÇÃO

TRATAMENTO DOS DADOS DE SATÉLITES

Projeto de Mestrado desenvolvido pela aluna Eveline Batista Rodrigues, no Departamento de Engenharia Elétrica da Universidade de São Paulo São

SISTEMAS DE INFORMAÇÃO GEOGRÁFICA SIG FORMATOS DE REPRESENTAÇÃO DE DADOS FORMATO VETORIAL

Processamento de Imagem. A Imagem digital Professora Sheila Cáceres

Descritores de Imagem (introdução)

Sensoriamento Remoto e Qualidade da Água

FUNDAMENTOS DE CARTOGRAFIA PARA GEOPROCESSAMENTO

CAPÍTULO 7 SENSORIAMENTO REMOTO APLICADO AOS ESTUDOS GEOLÓGICOS

PMI 3331 GEOMÁTICA APLICADA À ENGENHARIA DE PETRÓLEO

Radiômetros imageadores

Transcrição:

Processamento Digital de Imagens

O sensoriamento remoto Transformação de fluxo de energia radiante registradas por um sistema sensor, em informações sobre os objetos que compõem a superfície terrestre. O Sensoriamento Remoto originou-se de progressos em diferentes campos do conhecimento humano e que as fotografias aéreas foram os primeiros dados coletados por sistemas sensores para os quais foram desenvolvidas técnicas específicas de análise, visando a extração de informações sobre a superfície terrestre.

A partir da década de 1950, com o advento de sensores que operam além do espectro visível Quando os sinais detectados pelo sensor são transformados em uma imagem bidimensional da cena, dizemos que os sinais foram processados opticamente. O produto é uma imagem óptica, ou seja, uma imagem que pode ser visualizada e que, portanto, permite a extração de informações através de sua inspeção visual.

Com o aumento do número de faixas espectrais disponíveis sobre uma mesma cena, as técnicas de inspeção visual tornaram-se insuficientes para processar todos os dados contidos nas imagens a serem analisadas. A ciência da computação permitiu que os computadores fossem capazes de armazenar, processar, classificar e realizar cálculos sobre grandes volumes de dados em alta velocidade. Estes foram integrados a tecnologia do Sensoriamento Remoto, pois a operação dos sensores é programada via computadores.

As técnicas computacionais permitiram desenvolver também sistemas computacionais orientados para o processamento de imagens obtidas no formato digital, pois o dado original já estava neste formato. Atualmente, os métodos de análise de dados de sensoriamento remoto são divididos em dois conjuntos: 1) análise digital de imagens; 2) análise visual de imagens (feita na tela dos computadores).

O processamento de imagens cumpre propósitos diferentes, mas complementares: 1) melhorar a qualidade geométrica, radiométrica dos dados brutos; 2) melhorar a aparência visual das imagens para facilitar a interpretação visual, realçando as feições de interesse; 3) automatizar certos procedimentos de extração de informações para permitir a integração de dados de diferentes fontes; 4) permitir a integração de dados de diferentes fontes; 5) facilitar o desenvolvimento de modelos e a geração de produtos de representem a grandeza geofísica ou biofísica para usuários cujo interesse seja apenas aplicar a informação final.

Tendo em vista que os métodos de processamento digital visam melhorar a qualidade dos dados para futura interpretação de imagens visualizadas na tela, pode-se dizer que o processamento digital é uma etapa que precede à análise visual dos dados.

Características das Imagens Digitais a) Resolução espectral: número de bandas e as regiões espectrais a que se referem; b) Resolução espacial: o tamanho do pixel no terreno (em metros); c) Resolução radiométrica: número de elementos discretos que representa o brilho de cada pixel; d) dados auxiliares que permitirão sua correção radiométrica e geométrica.

É importante conhecer as características das imagens com as quais se está trabalhando para configurar adequadamente os sistemas de processamento e análise de dados digitais.

A resolução radiométrica, que determina o número de bits utilizados para a discretização do brilho registrado em cada pixel, é visualizado na imagem em níveis de brilho, níveis digitais, ou níveis de cinza, de acordo com os bits da resolução radiométrica. Exemplo: Imagem de 8 bits, 256 níveis de brilho. A distribuição dos níveis digitais de uma imagem pode ser representada por um histograma que mostra a frequência de pixels existentes na cena em cada nível digital. Ele pode indicar se a imagem apresenta alto ou baixo constraste.

Conceito de processamento Digital de imagens As imagens digitais podem ser processadas visando o realce ou a extração de informações específicas. Podem ser geradas composições coloridas a partir de diferentes bandas espectrais, em datas diferentes e diferentes sensores. A análise dos histogramas permite a manipulação do contraste da imagem, alterando o histograma original com o realce dos pontos de interesse. O processo de geração de cores é baseado na adição de cores primárias (RGB), permitindo várias combinações de cores e contrastes. Para interpretar o significado dessas cores, o usuário do dado precisa conhecer o comportamento espectral dos alvos de interesse e saber em que bandas eles podem ser mais bem discriminados.

Técnicas de Pré-processamento As atividades de processamento digital de imagens podem ser organizadas em três etapas independentes: pré-processamento, realce e classificação. As atividades de pré-processamento incluem o tratamento inicial dos dados brutos visando sua calibração radiométrica, a correção de distorções geométricas e a remoção de ruído. É o conjunto de técnicas e métodos que permitem a correção dos erros inerentes ao processso de aquisição dos dados. Embora muitas dessas correções sejam hoje já feitas pelos provedores.

Correção de erros inerentes a aquisição de imagens As imagens contêm erros geométricos e radiométricos. Os erros radiométricos originam-se de falhas instrumentais e limitações próprias do processo de imageamento. Os erros geométricos são causados por diferentes fatores: posicionamento do satélite, movimentos da Terra, curvatura da Terra, largura da faixa imageada.

Erros radiométricos Os fatores que afetam os valores digitais dos pixels podem gerar dois tipos de erros: 1) a distribuição de níveis digitais dentro de uma imagem não corresponde à distribuição de radiância ou brilho da cena imageada; 2) a variação relativa de nível digital num dado pixel nas diferentes bandas não corresponde ao comportamento espectral dos alvos na cena. Estes erros podem ser resultantes da interferência da atmosfera ou dos instrumentos utilizados na aquisição dos dados.

Efeitos atmosféricos e sua correção Um dos efeitos atmosféricos sobre as imagens é a redução do contraste entre os objetos de uma dada cena e a redução da possibilidade de detecção de pequenos objetos dentro de uma cena ou de diferenciação entre objetos que apresentam pequenas variações na intensidade do sinal. A correção destes efeitos carece de informações sobre os processos de espalhamento e absorção nos comprimentos de onda. Atualmente esta correção é feita com modelos de correção atmosférica do sinal. Atualmente, os próprios sensores possuem bandas que permitem determinar estas propriedades da atmosfera.

Outro método mais simples de correção atmosférica baseia-se no pressuposto de que em toda cena deve haver um alvo de radiância zero, mas que em decorrência da radiância atmosférica um valor constante foi adicionado a todos os pixels da cena. A análise do histograma permite determinar quanto os dados estão desviados da origem e este valor é então subtraído banda a banda para obter os dados corrigidos.

Erros instrumentais e sua correção Os erros radiométricos internos a uma banda ou entre bandas podem ser causados pela configuração e operação do sensor. Os mais comuns estão relacionados aos sistemas de detectores. Um detector ideal deveria ter características constantes de transferência da radiação em sinal elétrico. Os detectores reais não são assim. Os sensores são formados por matrizes de detectores. Alguns detectores podem apresentar variações nas funções de transferência, gerando a presença de faixas alternadas mais claras ou escuras nas imagens. É conhecido como striping. Outro erro é a ausência de linhas de imageamento, provocada por alterações na órbita do satélite, por falhas intermitentes na transmissão do sinal. A imagem possui algmas linhas para as quais não há dados.

As linhas não registradas podem ser estimadas a partir de vários métodos. Um deles se baseia no pressuposto de autocorrelação espacial (entre um dado e seus vizinhos). Para os erros de striping, a correção mais simples é o método que usa um modelo linear para representar a relação entre os valores de radiância e os valores de nível digital. Ele pressupõe que cada detector observa distribuições similares de objetos da superfície terrestre em uma cena. Assim, os histogramas de cada detector devem ser iguais, a média e o desvio padrão dos dados produzidos em cada detector devem ser iguais. Ele consiste então em forçar a média e o desvio padrão de todos os detectores a terem um mesmo valor, sendo equalizados entre si.

Erros geométricos e sua correção As principais fontes de erros geométricos são: a) o movimento de rotação da Terra durante o processo de aquisição de imagens; b) a velocidade de varredura finita; c) o amplo campo de visada de alguns sensores; d) a curvatura da Terra; e) variações na posição da plataforma de aquisição (altura, velocidade, direção, etc.); e) efeitos panorâmicos relacionados à geometria da imagem.

a) Os sensores de varredura levam um tempo finito para a aquisição de uma cena. Durante isto, a Terra gira de oeste para leste, de modo que um ponto imageado no fim da cena estará a oeste de um ponto imageado no início da cena. Para corrigir este efeito, é preciso acrescentar um offset à imagem proporcional ao movimento de deslocamento da órbita em direção a oeste.

b) As distorções panorâmicas são causadas pela variação do tamanho do pixel ao linha de varredura em direção das extremidades da faixa imageada. Esta distorção é causada devido ao tamanho constante do campo instantâneo de visada ao longo da linha de varredura, fazendo com que o tamanho do pixel aumente com o aumento da distância ao ponto nadir.

c) Os efeitos da curvatura da Terra são graves apenas para os sistemas que recobrem amplas faixas do terreno, como os sensores AVHRR/NOAA e MODIS/TERRA. d) Os sensores de varredura mecânica, que gastam um tempo finito para varrer uma linha perpendicular à órbita do satélite, que durante este tempo avança ao longo de sua órbita, provoca uma inclinação da linha de varredura naquela direção. e) A variação na altitude da plataforma provoca mudanças na escala dos dados. Se a velocidade da plataforma se modifica, também ocorrem mudanças na direção de deslocamento do satélite. Estes erros podem ser corrigidos posteriormente a partir dos dados de registros de desvios da plataforma.

f) Outra fonte de distorção principalmente para sensores com visada lateral, como o SAR, é a topografia. Para isso foram desenvolvidos os modelos de ortorretificação da imagem. Estes modelos consideram as coordenadas geográficas e a altitude dos pontos de controle.

A correção geométrica visa recuperar a qualidade geométrica da cena, de tal modo que os dados possuam características de escala e projeção próprias de mapas. Para uma maior precisão da correção geométrica das imagens torna-se necessário o uso de pontos de controle do terreno: 1) estabelecimento de relação entre o sistema de coordenadas do mapa e o da imagem; 2) estabelecimento de um conjunto de pontos definindo a posição dos pixels na imagem corrigida; 3) reamostragem que permite estimar o número digital a ser atribuído a cada pixel na imagem de saída, de tal modo que esta não sofra significativas alterações radiométricas.

Pontos de controle são feições bem definidas e facilmente reconhecíveis tanto nas imagens quanto nas cartas topográficas. A partir de uma coleção destes pontos, por meio do método dos mínimos quadrados transforma-se as coordenadas da imagem nas do mapa. Os polinômios mais empregados são os de primeiro, segundo e terceiro graus. Sua seleção depende do número de pontos de controle disponível e de sua distribuição espacial. Quanto maior o grau do polinômio, maior o número de pontos de controle necessário e melhor deve ser a sua distribuição.

A reamostragem é o processo que permite atribuir ao pixel da imagem corrigida um valor de nível digital interpolado da imagem distorcida. Existem três métodos de interpolação mais usados, e sua escolha depende do tipo de imagem, da variabilidade dos alvos e da aplicação que se dará aos dados. Existem os interpoladores: vizinho mais próximo, bilinear e a bicubica, cada um com suas vantagens e desvantagens.

Técnicas de realce Ampliação de contraste: análise do histograma.

Transformação IHS É a conversão de cores do espaço RGB para I (intensity) B (blue) S (saturation), ou seja, intensidade, matriz e saturação. Esta transformação permite gerar composições coloridas em que há menor correlação entre as bandas, permitindo um maior aproveitamento das cores. Uma das grandes possibilidades desta transformação é o realce do conteúdo espectral das informações. É muito usada também para a fusão de imagens, do mesmo sensor para melhorar a resolução espacial, ou para fundir imagens de diferentes sensores.

Esta transformação permite isolar a informação espectral contida em três bandas, em apenas dois canais, o da Saturação e o do Matiz (comprimento de onda dominante). O brilho da cena é isolado no canal de Intensidade, que pode então ser substituído por uma outra banda de melhor resolução, ou por uma banda de outro sensor.

Transformação pelas componentes principais A transformação dos canais originais em um conjunto de componentes principais é feita a partir do cálculo da matriz de covariância entre as bandas. O número de componentes principais é igual ao número de bandas. Cada componente está associada a uma dada variância dos níveis digitais, de tal modo, que a primeira componente, também chamada de principal, tem a maior variância, e a variância das demais n componentes, se reduz suscessivamente. Tanto a transformação IHS quanto a de componentes principais são transformações espectrais, ou seja, manipulam o domínio espectral dos dados, alterando sua representação ou diminuindo sua dimensionalidade.

Estas, assim como outras, podem ser consideradas como de realce, porque elas não geram informações novas, mas apenas tornam explícitas as informações de interesse. Outros realces: Índices de vegetação; Operações entre bandas; Filtros lineares, morfológicos e de textura.

Os filtros consistem no uso de uma janela móvel, que se desloca sobre a imagem e executa determinadas operações sobre os pixels nela contidos. Os filtros lineares são: filtros passa-baixa e passa-alta. Os filtros passa-baixa preservam os componentes de baixa frequência de uma imagem, suavizando-a. Os filtros passa-alta removem os componentes de baixa frequência da imagem mantendo os de alta frequência (variações locais). Com isso são realçadas as bordas e limites entre regiões adjacentes, ou objetos.

Técnicas de classificação O processo de atribuir significado a um pixel em função de suas propriedades numéricas é chamado genericamente de classificação. Em função do grau de intervenção que o analista tem no processo de classificação digital, classificação pode ser não-supervisionada e supervisionada.

Classificação não supervisionada Os pixels de uma imagem não alocados em classes sem que o usuário tenha conhecimento prévio de sua existência. Permite que se conheça a distribuição de pixels por classes espectrais. Estas distribuições são analisadas e comparadas com informações de campo ou mapas ou dados teóricos sobre o comportamento dos alvos. A classe do terreno a qual pertence cada pixel é portanto determinada a porteriori.

Classificação supervisionada Está baseada em um conhecimento prévio do analista sobre a localização espacial de algumas amostras das classes de interesse. Existem diversas técnicas de classificação. A classificação supervisionada se baseia no pressuposto de que cada classe espectral pode ser descrita a partir de amostras fornecidas pelo analista. Existem dois métodos muito utilizados: o determinístico e o probabilístico.

Existem procedimentos importantes para se garantir um bom resultado: 1) a escolha do melhor conjunto de bandas espectrais para o objeto de interesse; 2) a localização precisa das áreas de treinamento; 3) a determinação do relacionamento entre o tipo de objeto e o nível digital das bandas escolhidas; 4) a extrapolação desse relacionamento para toda a cena; 5) a avaliação da precisão da classificação realizada.

a) seleção de canais: existem algoritmos que selecionam o melhor conjunto de canais com base na divergência das assinaturas das classes a serem discriminadas; b) seleção de amostras: faz parte do processo de treinamento do algoritmo para criar uma série de descritores das classes. As amostras de uma dada classe devem ser representativas de todos os pixels daquela classe. c) avaliação da exatidão da classificação: após o processo de classificação é necessário determinar quão bom é o resultado da classificação em relação a realidade. O método de avaliação depende da disponibilidade de dados de campo.